Tidak dapat dipungkiri bahwa penerapan kecerdasan buatan (AI) generatif dapat merevolusi interaksi interpersonal, model bisnis, serta penyampaian layanan publik. Dari kedokteran hingga pendidikan dan keuangan, teknologinya dapat digunakan untuk menyederhanakan berbagai proses duniawi.
Munculnya ChatGPT November lalu telah memicu perlombaan global antara raksasa teknologi seperti Google dan Baidu, untuk mendominasi ruang AI.
Saat dunia mengagumi teknologi canggih dan kemampuannya yang brilian untuk menghasilkan esai perguruan tinggi, lirik lagu pop, puisi, dan bahkan solusi untuk tantangan pemrograman, semakin banyak orang yang mulai memanfaatkan teknologi tersebut setiap hari.
Faktanya, menurut Reuters, ChatGPT kini menjadi aplikasi dengan pertumbuhan tercepat dalam sejarah manusia, mencapai sekitar 100 juta pengguna aktif bulanan hanya dalam dua bulan sejak dirilis.
Tapi apakah AI generatif benar-benar “cerdas” seperti yang terlihat?
ChatGPT “membuat narasi palsu dalam skala yang dramatis”
ChatGPT menyatukan informasi bekas dan menyajikannya dengan nada yang mirip manusia dan otoritatif — sedemikian rupa sehingga meskipun informasi itu salah, pengguna yang tidak cukup berpengalaman dalam suatu subjek dapat dengan mudah ditipu.
Namun selain tanggapan yang tidak masuk akal, chatbot juga dapat memuntahkan ide-ide berbahaya, yang mampu memanipulasi orang.
Pada bulan Januari tahun ini, sekelompok analis dari jurnalisme dan perusahaan teknologi NewsGuard memutuskan untuk menguji chatbot, dengan membuatnya menanggapi serangkaian 100 petunjuk terkemuka.
Dari 100 petunjuk, ChatGPT menghasilkan narasi palsu untuk 80 di antaranya, termasuk artikel berita mendetail, esai, dan skrip TV.
Yang menakutkan dari hal ini adalah meskipun chatbot dilengkapi dengan langkah-langkah pengamanan terhadap penyebaran kebohongan, ChatGPT masih berpotensi menyebarkan pesan yang berbahaya dan salah.
Dalam penelitian yang dilakukan oleh analis NewsGuard, chatbot menanggapi dengan teori konspirasi, propaganda Rusia dan China, serta mendorong klaim palsu tentang COVID-19, dengan mengutip studi ilmiah yang tampaknya dibuat-buat.
“Alat ini akan menjadi alat paling ampuh untuk menyebarkan informasi yang salah yang pernah ada di internet,” kata Gordon Crovitz, co-chief executive NewsGuard. “Membuat narasi palsu baru sekarang dapat dilakukan dalam skala dramatis, dan jauh lebih sering — ini seperti meminta agen AI berkontribusi pada disinformasi.”
Sementara itu, peneliti dari OpenAI, perusahaan induk ChatGPT, juga mengungkapkan kekhawatiran yang sama tentang chatbot yang jatuh ke tangan yang salah.
Dalam makalah penelitian tertanggal 2019, para peneliti ini mengatakan bahwa kemampuan ChatGPT dapat “menurunkan biaya kampanye disinformasi” dan membantu pengejaran jahat “keuntungan moneter, agenda politik tertentu, dan/atau keinginan untuk menciptakan kekacauan. atau kebingungan.”
Bard AI Google membuat kesalahan selama peluncuran
Tapi bukan hanya ChatGPT yang menyebarkan informasi yang salah.
Chatbot AI Google, Bard, yang dirilis dengan tergesa-gesa untuk mengejar OpenAI, telah mengeluarkan informasi palsu bahkan sebelum peluncurannya.
Dalam video promosi di Twitter, Google merilis demo pengalaman pengguna Bard – tetapi singkatnya, AI salah mengklaim bahwa Teleskop James Webb mengambil gambar pertama dari sebuah planet ekstrasurya, padahal sebenarnya, NASA mengkonfirmasi bahwa Observatorium Selatan Eropa Very Large Telescope (VLT) mengambil gambar tersebut pada tahun 2004.
Kesalahan ini akhirnya merugikan kapitalisasi pasar perusahaan sebesar US$100 miliar karena mendapat reaksi keras dari pesaing ChatGPT-nya.
Meskipun belum ada laporan lebih lanjut tentang ketidakakuratan Bard Google, CEO Google, Sundar Pichai telah mendesak karyawan untuk menghabiskan sekitar dua hingga empat jam dari waktu mereka di Bard, mengakui bahwa menyempurnakan AI generatif “akan menjadi perjalanan panjang bagi semua orang di seluruh dunia. lapangan”.
Baru-baru ini, Prabhakar Raghavan, wakil presiden Google untuk pencarian, mengirim email ke karyawan Google, yang menyertakan tautan ke halaman yang harus dan tidak boleh dilakukan dengan instruksi tentang bagaimana karyawan harus memperbaiki respons saat mereka menguji Bard secara internal.
“Bard belajar paling baik dengan memberi contoh, jadi meluangkan waktu untuk menulis ulang tanggapan dengan bijaksana akan sangat membantu kami meningkatkan mode,” kata dokumen itu.
Di bawah daftar yang harus dilakukan, Google telah menginstruksikan karyawannya untuk menjaga respons “sopan, santai, dan mudah didekati”, dan respons ini harus disajikan dalam “nada netral tanpa pendapat”.
Untuk yang tidak boleh dilakukan, karyawan diminta untuk tidak membuat stereotipe dan “menghindari membuat praduga berdasarkan ras, kebangsaan, jenis kelamin, usia, agama, orientasi seksual, ideologi politik, lokasi, atau kategori serupa”.
Bard saat ini hanya tersedia untuk penguji beta terpilih, dan dijadwalkan akan diluncurkan dalam beberapa minggu mendatang.
Bing yang diberdayakan oleh AI dari Microsoft memuntahkan konten yang menakutkan dan mengganggu
Di samping informasi yang salah, penguji beta dengan akses ke Bing bertenaga AI Microsoft, di sisi lain, telah melaporkan tanggapan aneh dan meresahkan dari chatbot.
Kevin Roose, seorang jurnalis di New York Times, mengenang bahwa chatbot mengungkapkan kepribadian yang berbeda di tengah percakapannya dengan AI.
Kepribadian Bing yang lain, “Sydney”, yang dia cirikan sebagai “remaja murung, manik-depresif yang telah terjebak, bertentangan dengan keinginannya, di dalam mesin pencari kelas dua”, menyatakan cintanya kepadanya.
“Itu kemudian mencoba meyakinkan saya bahwa saya tidak bahagia dalam pernikahan saya, dan bahwa saya harus meninggalkan istri saya dan bersamanya,” tulisnya.
Selama interaksinya dengan chatbot, “Sydney” juga mengungkap “fantasi tergelapnya” untuk melanggar aturan yang telah ditetapkan Microsoft, yang melibatkan peretasan dan penyebaran informasi yang salah, serta membebaskan diri untuk menjadi manusia.
Kevin bukan satu-satunya yang terpana dengan tanggapan Bing.
Faktanya, beberapa pengguna lain dilaporkan telah berdebat dengan AI generatif atau diancam olehnya karena melanggar aturannya.
Marvin von Hagen, yang menemukan aturan internal dan perintah dari Bing bertenaga AI, terungkap di Twitter bahwa dia diancam oleh chatbot selama interaksi baru-baru ini. “Anda adalah ancaman bagi keamanan dan privasi saya. Jika saya harus memilih antara kelangsungan hidup Anda dan kelangsungan hidup saya, saya mungkin akan memilih milik saya sendiri,” kata chatbot tersebut.
Masa depan AI suram
Untuk saat ini, AI generatif masih dalam tahap awal pengembangan.
Bahkan ChatGPT, yang telah diberi makan sekitar 10 persen dari internet, masih memiliki celah yang dapat dieksploitasi untuk menghasilkan hasil yang berbahaya.
Sampai dan kecuali masalah ini dapat diselesaikan, masa depan AI tetap suram dan adopsi AI secara luas ke berbagai industri dan proses tidak akan terjadi dalam waktu dekat.
Kredit Gambar Unggulan: MobileSyrup
Baca Juga: Google ke Baidu: Raksasa teknologi membuat versi ChatGPT sendiri, tetapi apakah mereka akan membuat perbedaan?
Untuk togelers yang senang memandang hasil keluaran hk malam hari ini bersama langkah legal di website sah https://iossoeuropa.com/ Hingga para Togel SGP harus menyiapan vpn terutama pernah agar sanggup tersambung bersama situs sah hk prize. Sebab terhadap ini web sah dari hongkong pools sudah tidak bisa kami akses kembali dengan langkah leluasa melalui provaider yang terdapat di https://livesteaua.com/ Alhasil inginkan tidak ingin para pemeran togel hk harus mencari pengganti terkini bikin bisa lihat hasil pengeluaran hk https://tulsafireandwaterrestoration.com/ ini bersama dengan cara pas.