copilot

Chatbot AI generatif seperti Microsoft Copilot sering mengarang cerita. Berikut cara mengendalikan kecenderungan berbohong tersebut dan memanfaatkan alat-alat tersebut dengan lebih baik.

Copilot, chatbot AI generatif Microsoft, tampaknya merupakan seorang jenius yang brilian dan serba bisa, mampu menemukan fakta-fakta yang paling sulit ditemukan sesuai perintah. Kini terintegrasi ke dalam beragam produk perusahaan — termasuk aplikasi Microsoft 365, Windows, Edge, Bing, dan lainnya — Copilot dapat menjadi penyelamat bagi mereka yang membuat dokumen bisnis, mulai dari laporan penjualan hingga teks pemasaran, prakiraan anggaran, dan lainnya.

Namun, jangan tertipu. Memang benar bahwa Copilot bisa sangat membantu di sebagian besar waktu. Namun, ia juga punya alter ego: seorang pembual yang sangat ingin dianggap sebagai jenius sok tahu dengan fakta-fakta paling rumit di ujung jarinya. Dan jika ia tidak dapat menemukan fakta-fakta tersebut, ia akan mengarangnya—sesuatu yang oleh para peneliti AI disebut halusinasi.

Halusinasi bukanlah gangguan sementara dalam pengembangan AI yang akan teratasi seiring waktu. Penelitian dari OpenAI, perusahaan pengembang ChatGPT, menemukan bahwa halusinasi pada dasarnya tertanam dalam DNA model bahasa besar (LLM), sistem AI canggih yang menggerakkan chatbot seperti ChatGPT dan Copilot, karena kendala matematis.

Makalah penelitian OpenAI menyatakan, “Seperti siswa yang menghadapi soal ujian yang sulit, model bahasa besar terkadang menebak ketika tidak yakin, menghasilkan pernyataan yang masuk akal namun salah alih-alih mengakui ketidakpastian… Kami berpendapat bahwa model bahasa berhalusinasi karena prosedur pelatihan dan evaluasi lebih mengutamakan menebak daripada mengakui ketidakpastian.”

Ada banyak sekali contoh AI yang melenceng dan berhalusinasi, mulai dari kutipan imajiner dalam dokumen Departemen Kesehatan dan Layanan Kemanusiaan Robert F. Kennedy yang berjudul “Laporan MAHA: Jadikan Anak-Anak Kita Sehat Kembali” hingga mantan pengacara Donald Trump, Michael Cohen, yang menggunakan kutipan hukum berhalusinasi AI , dan masih banyak lagi.

Ini bukan berarti Anda harus berhenti menggunakan Copilot atau genAI. Sebaliknya, Anda dapat mengurangi halusinasi AI secara signifikan. Berikut cara melakukannya di Microsoft Copilot. (Sebagian besar tips ini juga berlaku untuk chatbot genAI lainnya.)

Leave a Reply

Your email address will not be published. Required fields are marked *