Mei 3, 2024

Review Bekasi

Temukan Berita & berita utama terbaru tentang INDONESIA. Dapatkan informasi lebih lanjut tentang INDONESIA

“60 Menit” membuat klaim palsu yang mengejutkan tentang AI Chatbot Bard Google

“60 Menit” membuat klaim palsu yang mengejutkan tentang AI Chatbot Bard Google

Sejak OpenAI meluncurkan ChatGPT ke dunia, kami telah melihatnya membawa orang yang tidak Anda percayai. Beberapa orang mengklaim bahwa chatbot memiliki agenda yang terbangun. Senator AS Chris Murphy tweeted bahwa ChatGPT “mengajarkan” sendiri kimia tingkat lanjut. Bahkan jurnalis teknologi berpengalaman telah menulis cerita tentang cara kerjanya Chatbot jatuh cinta pada mereka. Sepertinya dunia bereaksi terhadap AI dengan cara yang sama seperti reaksi manusia gua ketika mereka pertama kali melihat api: dengan kebingungan dan ocehan yang tidak jelas.

Salah satu contoh terbaru berasal dari 60 menit, yang menyuarakan suaranya dengan episode baru yang berfokus pada inovasi dalam kecerdasan buatan yang ditayangkan di CBS Sunday. Episode tersebut menampilkan wawancara dengan orang-orang seperti Sundar Pichai, CEO Google, dan menyertakan konten yang meragukan Klaim tentang chatbot perusahaan Bard.

Segmennya adalah tentang perilaku yang muncul, yang menggambarkan efek samping tak terduga dari sistem AI yang belum tentu dimaksudkan oleh pengembang model. Kami telah melihat perilaku yang muncul dalam proyek AI terbaru lainnya. Misalnya, para peneliti baru-baru ini menggunakan ChatGPT untuk membuat persona digital dengan tujuan dan latar belakang dalam sebuah penelitian yang dipublikasikan secara online minggu lalu. Mereka mencatat bahwa sistem melakukan berbagai perilaku yang muncul seperti berbagi informasi baru dari satu karakter ke karakter lain dan bahkan membentuk hubungan satu sama lain — sesuatu yang awalnya tidak direncanakan oleh penulis untuk sistem tersebut.

Emerging behavior tentunya menjadi topik yang menarik untuk didiskusikan dalam sebuah program berita. Dimanakah 60 menit Video mengambil giliran, ketika kita belajar tentang klaim bahwa chatbot Google benar-benar dapat mengajarkan dirinya sendiri bahasa yang tidak diketahui sebelumnya. “Misalnya, satu program AI Google diadaptasi sendiri setelah diberitahu untuk melakukannya dalam bahasa Bangladesh, yang tidak dilatih untuk diketahui,” kata reporter CBS News Scott Pelley dalam video tersebut.

READ  HP secara tidak sengaja menggunakan tangkapan layar macOS dalam iklan untuk laptop Windows-nya

Ini adalah BS lengkap. Tidak hanya Bard tidak belajar bahasa asing “bahwa dia tidak dilatih dalam pengetahuan”, tetapi dia juga tidak belajar sendiri keterampilan baru. Seluruh klip tersebut mendorong para peneliti dan pakar AI untuk mengkritik pembingkaian acara berita yang menyesatkan di Twitter.

“Saya tentu berharap beberapa jurnalis akan meninjau seluruh segmen @60Minute di Google Bard sebagai studi kasus tentang cara *tidak* meliput AI,” kata Melanie Mitchell, peneliti AI dan profesor di Institut Santa Fe. tulisnya dalam tweet.

“Berhentilah berpikir ajaib tentang teknologi! #AI tidak mungkin merespons dalam bahasa Bengali, kecuali data pelatihan telah terkontaminasi bahasa Bengali atau dilatih dalam bahasa yang tumpang tindih dengan bahasa Bengali, seperti bahasa Assam, Oriya, atau Hindi,” kata Ms. Alex O. peneliti di Massachusetts Institute of Technology, Ditambahkan di pos lain.

Alasan untuk mengklaimnya 60 menit Itu sangat membuat frustrasi para ahli ini karena mengabaikan dan bermain-main dengan kenyataan tentang apa yang sebenarnya dapat dilakukan oleh AI generatif seperti Bard. Itu tidak dapat “mengajar” dirinya sendiri suatu bahasa jika tidak memiliki akses ke bahasa itu sejak awal. Ini seperti mencoba mengajari diri sendiri bahasa Mandarin tetapi Anda baru mendengarnya setelah seseorang menanyakan bahasa Mandarin kepada Anda sekali.

Lagi pula, bahasa itu sangat kompleks — dengan nuansa dan aturan yang membutuhkan tingkat konteks yang luar biasa untuk dipahami dan dikomunikasikan. Tidak ada cara bahkan untuk model bahasa besar (LLM) tercanggih untuk menangani semua itu dan mempelajarinya dengan beberapa petunjuk.

Bagian ini juga memiliki satu fakta yang sepenuhnya salah: Bard mungkin telah terlatih dalam pengetahuan bahasa Bengali, bahasa dominan di Bangladesh. Margaret Mitchell (tidak ada hubungan), peneliti di Lab Startup di AT HuggingFace dan sebelumnya di Google, menjelaskan hal ini di Menciak topik menghancurkan mengapa 60 menit salah.

READ  Jawaban Teka Teki Silang New York Times 6 Februari 2024

Mitchell mencatat bahwa Bard menyertakan karya dari iterasi awal modelnya yang disebut PaLM. Dalam demonstrasi tahun 2022, Google menunjukkan bahwa PaLM dapat berkomunikasi dan menanggapi petunjuk dalam bahasa Bengali. itu Kertas di belakang Palm Terungkap dalam lembar data bahwa model tersebut sebenarnya dilatih pada bahasa dengan sekitar 194 juta simbol dalam alfabet Bengali.

Tidak jelas mengapa Pichai, CEO Google, duduk untuk wawancara dan membiarkan tuduhan ini terus berlanjut tanpa perlawanan. (Google tidak menanggapi permintaan komentar.) Sejak episode tersebut ditayangkan, dia tetap diam meskipun para ahli menunjukkan klaim menyesatkan dan palsu yang dibuat dalam klip tersebut. Di Twitter Margaret Mitchell Usul Alasan di balik ini bisa jadi kombinasi dari para pemimpin Google yang tidak mengetahui cara kerja produk mereka dan juga karena hal itu memungkinkan penyebaran pesan yang buruk untuk mengatasi hype saat ini seputar AI generatif.

“Saya menduga [Google executives] Saya benar-benar tidak mengerti cara kerjanya, Mitchell kicauan. “Apa yang saya tulis di atas kemungkinan besar adalah berita bagi mereka. Dan mereka termotivasi untuk tidak mengerti (BICARA MATA ANDA PADA LEMBAR DATA INI!!).”

Paruh kedua video juga terlihat bermasalah karena Pichai dan Billy mendiskusikan cerita pendek yang dibuat Bard yang “terdengar sangat manusiawi”, membuat kedua pria itu agak terguncang.

Sebenarnya, produk ini bukanlah sihir. Mereka tidak bisa menjadi “manusia” karena mereka bukan manusia. Mereka adalah prediktor teks seperti yang ada di ponsel Anda, dilatih untuk menghasilkan kata dan frasa yang paling mungkin setelah serangkaian kata dalam frasa. Mengatakan mereka ada mungkin memberi mereka tingkat kekuatan yang bisa sangat berbahaya.

Lagi pula, pengguna dapat menggunakan sistem AI generatif ini untuk melakukan hal-hal seperti menyebarkan informasi yang salah. Kami telah melihat ini memanipulasi kemiripan orang dan bahkan suara mereka.

READ  Kita salah membangun rumah

Bahkan chatbot sendiri dapat menyebabkan kerugian jika akhirnya memberikan hasil yang bias – sesuatu yang telah kita lihat dengan ChatGPT dan Bard. Mengetahui kecenderungan chatbot ini untuk berhalusinasi dan memalsukan hasil, mereka mungkin dapat menyebarkan informasi yang salah kepada pengguna yang tidak menaruh curiga.

Penelitian juga membuktikan hal ini. Penelitian baru-baru ini Diposting di Laporan ilmiah Dia menemukan bahwa tanggapan manusia terhadap pertanyaan etis dapat dengan mudah dipengaruhi oleh argumen yang dibuat oleh ChatGPT – dan bahkan pengguna sangat meremehkan seberapa besar mereka dipengaruhi oleh bot.

Klaim menyesatkan tentang 60 menit Ini benar-benar hanya gejala dari kebutuhan yang lebih besar akan literasi digital pada saat kita sangat membutuhkannya. Banyak ahli AI mengatakan bahwa sekarang, lebih dari sebelumnya, adalah waktu ketika orang perlu menyadari apa yang bisa dan tidak bisa dilakukan oleh AI. Fakta-fakta dasar tentang robotika ini juga harus dikomunikasikan secara efektif kepada masyarakat luas.

Ini berarti bahwa orang-orang dengan platform terbesar dan suara paling keras (yaitu media, politisi, dan CEO Big Tech) memikul tanggung jawab terbesar dalam memastikan masa depan AI yang lebih aman dan terdidik. Jika tidak, kita bisa berakhir seperti manusia gua yang disebutkan di atas, bermain dengan keajaiban api — dan terbakar dalam prosesnya.