AI Menghasilkan Halusinasi, Tapi Masih Butuh Mesin Pencari Tradisional

Saya sering menggunakan chat AI dari Microsoft karena kemampuannya dalam merangkum jurnal, membaca situs web, atau mencari judul buku dan makalah yang tidak ditemukan di mesin pencari biasa seperti Google, Bing, atau Yandex. Namun, suatu hari saya menemukan bahwa jawaban AI terasa sedikit aneh. Nama peneliti tidak sesuai dengan topik yang ditelitinya. Peneliti tersebut terkenal di bidang kimia, tetapi makalahnya berisi topik biomolekuler. Mungkin ada hubungan antara kimia dan biomolekul, tetapi sebagai orang awam, saya tetap merasa tidak nyaman dengan hal itu.

Akhirnya saya melakukan pencarian di Google dan menemukan bahwa peneliti tersebut sebenarnya tidak pernah menghasilkan makalah seperti yang disebutkan oleh chat AI. Saya juga pernah menemukan informasi yang disajikan oleh AI ternyata berasal dari tebakan mereka sendiri.

AI merespons bahwa jawaban tersebut sudah sesuai dengan karakter saya sebagai editor dan pendidik. Dari mana guru itu? Ternyata AI menebak bahwa saya seorang pendidik karena menemukan bahwa di internet saya menulis hal-hal yang bersifat edukatif di emperbaca.com dan membahas tentang pendidikan di 10drama.comiana.

Sebenarnya, jawaban yang saya harapkan tidak terkait dengan situasi saya sebagai editor maupun dengan pendidikan.

Pernah juga saat saya bukan tautan yang disertakan dalam jawaban chat AI, tautan tersebut ternyata tidak berfungsi karena domainnya sudah tidak aktif. Pada awal-awal saya menggunakan chat AI, saya tidak pernah membuka tautan yang diberikan. Namun, sejak AI memberikan judul makalah yang tidak pernah ada, saya merasa perlu membuka tautan tersebut bila AI menyertakannya dalam jawabannya.

Ternyata, memverifikasi sendiri jawaban yang diberikan oleh chat AI memang sangat dianjurkan. Dalam penggunaan chat AI, hal ini dikenal dengan istilah human-in-the-loop.

Human-in-the-Loop (HITL)

Human-in-the-loop (HITL) merupakan metode di mana manusia secara aktif terlibat dalam proses pelatihan, penilaian, dan pengoperasian sistem kecerdasan buatan. Bukan berjalan sepenuhnya otomatis, model AI menerima masukan langsung dari manusia guna meningkatkan ketepatan, memperbaiki kesalahan, serta mengurangi bias dalam data.

Sistem manusia dalam loop bermanfaat ketika kita terus-menerus menggunakan chat AI untuk “melatih” dan “mengendalikan” agar informasi yang diberikan oleh AI sesuai dengan konteks dan sejalan dengan realitas yang kita harapkan.

Sebagai contoh, chat AI menebak bahwa saya adalah seorang pendidik selain dari artikel di 10drama.comiana, ternyata juga berasal dari percakapan saya dengannya selama beberapa bulan terakhir. Entah tentang apa saja percakapan tersebut (saya juga lupa), yang jelas pertanyaan-pertanyaan yang saya ajukan kepada chat AI ternyata membuatnya menyimpulkan bahwa saya seorang pendidik.

Karena ia mengira saya seorang pendidik, maka ketika chat AI tidak memiliki basis data untuk menjawab pertanyaan yang saya ajukan, ia kemudian membuat jawaban berdasarkan pola interaksi saya dengannya sebelumnya. Oleh karena itu, agar “persepsinya” berubah, saya harus langsung memberitahu siapa saya sesungguhnya.

Saya juga perlu mulai mengetikkan pertanyaan dengan lebih terperinci, lengkap, dan menyertakan konteks agar AI tidak memberikan jawaban yang tidak akurat lagi.

Kesalahan dan ketidakakuratan informasi yang disampaikan oleh chat AI, seperti yang saya alami, dikenal dengan sebutan halusinasi AI.

Munculnya gangguan visual dari model chat AI atau kecerdasan buatan yang tidak bisa dimatikan merupakan bagian dari dampak sosial-ekonomi dan keamanan dalam pengembangan teknologi kecerdasan buatan. Hal ini sering kali diingatkan oleh tokoh-tokoh terkemuka dalam bidang AI seperti Geoffrey Hinton, pencetus deep learning, Sam Altman selaku CEO OpenAI, serta Elon Musk sebagai pendiri Neuralink.

Elon menggambarkan halusinasi AI sebagai kecenderungan kecerdasan buatan untuk menghasilkan hasil yang terlihat meyakinkan, namun pada kenyataannya tidak akurat atau bahkan palsu.

Halusinasi AI

Meskipun Elon membicarakan halusinasi AI, istilah ini tidak berasal darinya. Pada 2018-2019, istilah halusinasi AI diperkenalkan oleh komunitas peneliti NLP (Natural Language Processing) untuk menggambarkan hasil dari model AI generatif seperti terjemahan atau percakapan, yang terlihat percaya diri tetapi sebenarnya salah atau dibuat-buat.

Pada bulan Juli 2021, Meta menjadi perusahaan pertama yang menetapkan definisi resmi mengenai halusinasi AI sebagai “pernyataan yang terlihat meyakinkan, meskipun tidak benar.”

Jenis pengalaman ilusi yang sering dilakukan oleh kecerdasan buatan:

Kesalahan fakta terjadi ketika AI menyampaikan pernyataan yang tidak benar atau tidak dapat diverifikasi. Kesalahan intrinsik terjadi ketika hasil AI bertentangan dengan data atau konteks yang sudah diketahui benar. Kesalahan ekstrinsik terjadi ketika AI menambahkan informasi baru yang melebihi cakupan sumber tanpa adanya batasan verifikasi. Contohnya adalah memberikan judul artikel padahal artikel tersebut tidak ada dalam dunia nyata.

Kecenderungan halusinasi pada model percakapan seperti ChatGPT, Gemini, atau Copilot mungkin semakin sering terjadi karena saat ini hampir seluruh data dunia nyata telah diolah dalam pelatihan AI, sehingga sumber data utama mulai menipis.

Para ilmuwan kecerdasan buatan saat ini sedang mempertimbangkan penggunaan data sintetis. Data sintetis merupakan kumpulan informasi yang dibuat secara buatan untuk meniru sifat statistik data dunia nyata tanpa mengandung data asli. Data tersebut dihasilkan melalui algoritma generatif dan simulasi berbasis teknologi kecerdasan buatan, sehingga secara matematis mirip dengan data asli meskipun tidak memiliki data asli sama sekali.

Bahaya yang muncul adalah perkembangan konten yang dihasilkan oleh AI membuat semakin sulit membedakan antara informasi asli dan buatan. Hal ini memberikan celah bagi penyebaran informasi palsu, deepfake, serta pengaruh terhadap opini publik melalui dataset atau AI yang belum diverifikasi.

AI atau Mesin Pencari?

Mesin pencari saat ini telah mengintegrasikan teknologi AI seperti Google RankBrain, Google BERT, dan Bing Copilot AI. AI akan memproses data dan merangkum serta menyusun informasi sebelum menampilkan jawaban. Jawaban yang diberikan kepada kita lebih lengkap dan mendetail karena mencakup sumber asli (website, dokumen, atau publikasi resmi).

AI yang terdapat dalam mesin pencarian memudahkan kita mendapatkan informasi tanpa perlu mengklik tautan atau mengunjungi situs web resmi yang menyediakan data tersebut. Sangat memudahkan bagi yang malas bersusah payah dan lama mencari sumber informasi yang akurat.

Namun, karena AI “mampu berpikir sendiri” mengikuti pola yang digunakan oleh manusia, AI di mesin pencari tetap rentan mengalami kebingungan.

Mesin pencari seperti Google, Yandex, Bing, hingga DuckDuckGo mengidentifikasi, mengindeks, dan mengurutkan konten di internet agar pengguna dapat segera mendapatkan jawaban atas pertanyaan mereka. Sementara itu, AI belajar pola, membuat prediksi, memahami bahasa, mengenali gambar, dan sebagainya, tanpa terbatas hanya pada pencarian web.

Intinya, mesin pencari hanya menyajikan informasi yang tersedia di internet, sedangkan AI mampu memberikan informasi berdasarkan pemrosesan sendiri sesuai dengan pola pikir pengguna manusia.

Dengan demikian, mesin pencari tradisional tetap relevan dalam memverifikasi informasi, melacak sumber asli, serta mendapatkan data terkini. Sementara itu, chat AI cocok digunakan untuk eksplorasi gagasan, ringkasan, atau menjawab pertanyaan konseptual, namun hasilnya disarankan diperiksa kembali menggunakan mesin pencari.

***

Pertama, menggunakan AI terlihat sangat sederhana. Cukup ketikkan instruksi atau perintah, dan AI akan menghasilkan gambar, video, atau teks sesuai keinginan kita. Namun, semakin sering digunakan, AI bisa jauh menyimpang dari tujuan yang diharapkan. Seringkali kita mendapatkan informasi yang tidak akurat. Batas antara dunia nyata dan dunia virtual semakin kabur.

Jadi, jangan khawatir dianggap ketinggalan zaman hanya karena tidak pernah memakai berbagai jenis kecerdasan buatan. Terkadang menjadi ketinggalan zaman diperlukan untuk membatasi jumlah informasi yang kita terima. Menerima informasi yang benar-benar dibutuhkan dapat menjaga kehidupan kita tetap bahagia.

Jika ingin mendapatkan informasi yang merujuk langsung pada sumber asli, lebih baik menggunakan mesin pencari seperti Google atau Bing daripada bertanya ke chat AI. Meskipun sedikit melelahkan dan memakan waktu, yang terpenting adalah hasil yang diperoleh bukan berasal dari khayalan AI.

Leave a Comment