Scroll untuk baca artikel
Example 325x300
Example floating
Example floating
Example 728x250
Internet

Studi: Mesin Pencari AI Kerap Mengambil Sumber dari Situs Berkualitas Rendah

29
×

Studi: Mesin Pencari AI Kerap Mengambil Sumber dari Situs Berkualitas Rendah

Sebarkan artikel ini
ai sering ambil sumber tidak terpercaya

Kemajuan mesin pencari berbasis kecerdasan buatan (AI search engine) seperti ChatGPT, Gemini, Copilot, dan Perplexity memang mengubah cara manusia mencari informasi di internet. Namun, sebuah studi terbaru mengungkap sisi lain yang cukup mengkhawatirkan — ternyata, banyak mesin pencari AI masih sering mengambil referensi dari situs dengan kualitas rendah atau konten yang tidak terverifikasi.

Temuan ini menimbulkan pertanyaan besar tentang akurasi dan kredibilitas hasil pencarian berbasis AI, di tengah meningkatnya ketergantungan masyarakat terhadap teknologi generatif.


Hasil Studi: AI Lebih Sering Kutip Situs “Clickbait”

Penelitian dilakukan oleh Algorithmic Integrity Lab dari University of Washington, bekerja sama dengan Mozilla Foundation dan Data & Society Research Institute.
Dalam riset yang melibatkan lebih dari 15.000 hasil pencarian dari 7 mesin pencari AI populer, ditemukan bahwa lebih dari 46% sumber yang dikutip AI berasal dari situs yang memiliki tingkat kredibilitas rendah.

Situs-situs tersebut umumnya:

  • Memuat judul clickbait atau sensasional,
  • Mengandung iklan berlebihan atau tautan afiliasi,
  • Tidak mencantumkan penulis atau referensi yang jelas,
  • Mengandung informasi parsial atau menyesatkan.

Sebaliknya, hanya sekitar 23% hasil pencarian yang menautkan sumber dari media kredibel dan jurnal akademik.

“Mesin pencari AI memang cepat dan pintar, tapi belum selalu bijak dalam memilih sumber,”
ujar Dr. Amanda Rusell, peneliti utama studi tersebut.
“Mereka masih kesulitan membedakan antara konten populer dan konten yang benar-benar akurat.”


Masalah Terbesar: “AI Tak Bisa Nilai Kredibilitas”

Salah satu penyebab utama fenomena ini adalah cara kerja model bahasa besar (Large Language Model/LLM).
LLM seperti GPT, Gemini, dan Claude tidak memiliki pemahaman moral atau nilai kebenaran — mereka belajar dari pola teks yang sudah ada di internet, tanpa kemampuan alami untuk menilai kredibilitas sumber.

Dengan kata lain, jika sebuah informasi sering muncul di web, AI cenderung menganggapnya relevan, meskipun sebenarnya salah atau bias.

Peneliti juga menemukan bahwa algoritma AI sering mengutamakan keterbacaan dan gaya bahasa menarik dibandingkan validitas data.
Inilah mengapa hasil pencarian berbasis AI kadang tampak meyakinkan tapi ternyata salah (hallucination).

“AI bisa menulis seperti pakar, padahal kadang ia hanya meniru gaya bicara sumber yang salah,”
jelas Dr. Rusell.


Studi Banding: ChatGPT vs Gemini vs Perplexity

Dalam riset tersebut, para peneliti membandingkan beberapa mesin pencari AI populer:

  • ChatGPT (OpenAI)
  • Gemini (Google)
  • Copilot (Microsoft)
  • Perplexity AI
  • You.com
  • Claude (Anthropic)

Hasilnya cukup bervariasi:

  • ChatGPT dan Perplexity paling sering mengutip sumber dari situs yang tidak memiliki kejelasan penulis atau referensi.
  • Gemini dan Copilot lebih sering mengambil dari situs besar seperti Wikipedia, Forbes, atau Reuters, namun masih ditemukan bias konten pada topik politik dan kesehatan.
  • Claude menunjukkan tingkat akurasi tertinggi dalam menyaring sumber, meski belum sempurna.

Studi juga mencatat bahwa ketika topik pencarian berkaitan dengan kesehatan, keuangan, dan hukum, risiko kesalahan meningkat signifikan karena AI sering memprioritaskan situs dengan format blog atau panduan komersial.


Dampak pada Pengguna dan Ekosistem Informasi

Masalah ini tidak hanya berdampak pada kualitas informasi, tapi juga berpotensi mengubah perilaku pengguna dan arah industri media.
Ketika pengguna semakin mengandalkan hasil AI tanpa memeriksa sumbernya, maka situs dengan informasi dangkal justru bisa mendapatkan lebih banyak eksposur dan trafik tidak proporsional.

Di sisi lain, situs jurnalistik dan akademik yang mengutamakan validitas data justru kalah bersaing di algoritma AI karena gaya bahasanya dinilai “kurang menarik” untuk model bahasa.

Fenomena ini bisa menciptakan lingkaran informasi menurun — di mana AI terus memperkuat situs berkualitas rendah karena data pelatihannya diambil dari sana.

“Kalau tidak dikoreksi, AI berpotensi membentuk ulang internet berdasarkan popularitas, bukan kebenaran,”
tulis laporan penelitian itu.


Respons dari Perusahaan Teknologi

Menanggapi hasil studi tersebut, beberapa perusahaan AI besar mulai melakukan evaluasi internal.

  • OpenAI mengklaim sedang mengembangkan sistem “source ranking” untuk memprioritaskan situs dengan reputasi baik.
  • Google melalui Gemini menambahkan fitur “About this result”, yang menampilkan asal dan kredibilitas sumber.
  • Microsoft Copilot mengintegrasikan database dari Bing Trusted News Partnership agar hasil pencarian lebih akurat.

Meski begitu, para ahli menilai upaya ini masih belum cukup, mengingat transparansi data pelatihan AI masih sangat terbatas.
Tanpa keterbukaan sumber, sulit bagi publik untuk menilai seberapa andal hasil pencarian yang diberikan mesin AI.


Apa yang Bisa Dilakukan Pengguna?

Para peneliti menyarankan agar pengguna tidak bergantung sepenuhnya pada jawaban AI, terutama untuk topik yang sensitif atau berisiko tinggi.
Beberapa langkah praktis yang bisa dilakukan antara lain:

  1. Cek sumber asli dari kutipan atau link yang disertakan.
  2. Gunakan mesin pencari tradisional (seperti Google Search) sebagai pembanding.
  3. Waspadai gaya bahasa meyakinkan tanpa referensi jelas.
  4. Gunakan situs akademik, jurnal, atau lembaga resmi untuk informasi medis, keuangan, dan hukum.

Kesimpulan

Temuan ini menjadi pengingat penting bahwa meski AI telah mengubah cara manusia mencari informasi, kecerdasan buatan belum bisa menggantikan verifikasi manusia.
AI cepat, tapi belum selalu benar.

Jika tidak diimbangi dengan evaluasi kritis, masyarakat berisiko hidup di era di mana informasi palsu tampil seolah fakta, dan fakta tenggelam dalam popularitas algoritma.

“Kecerdasan buatan seharusnya membantu manusia berpikir, bukan menggantikan proses berpikir itu sendiri,”
tulis Kompas Tekno dalam refleksinya.


Apakah kamu ingin saya lanjutkan dengan artikel lanjutan bertema “Mengapa Situs Berkualitas Rendah Mudah Masuk ke Dataset AI?” agar memperdalam sisi teknisnya?

Example 120x600

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *