OpenAI: Awas Kecanduan Mode Suara ChatGPT!
IDNStart.com — Pada akhir Juli, OpenAI mulai meluncurkan antarmuka suara yang mirip manusia untuk ChatGPT.
Dalam analisis keamanan yang dirilis hari ini, perusahaan mengakui bahwa suara antropomorfik ini dapat memikat beberapa pengguna untuk terikat secara emosional dengan chatbot mereka.
Peringatan tersebut disertakan dalam "kartu sistem" untuk GPT-4o, sebuah dokumen teknis yang menjelaskan apa yang diyakini perusahaan sebagai risiko yang terkait dengan model tersebut.
Selain itu, dokumen juga menjelaskan detail seputar pengujian keamanan dan upaya mitigasi yang dilakukan perusahaan untuk mengurangi potensi risiko.
Risiko yang dieksplorasi dalam kartu sistem baru ini sangat luas, dan mencakup potensi GPT-4o untuk memperkuat bias sosial.
Bias sosial yang dimaksud yakni menyebarkan disinformasi, bahkan membantu pengembangan senjata kimia atau biologis.
Laporan ini juga mengungkapkan rincian pengujian yang dirancang untuk memastikan bahwa model AI tidak akan mencoba melepaskan diri dari kendali mereka, menipu orang, atau menyusun rencana bencana.
Beberapa pakar memuji OpenAI atas transparansi yang dilakukannya, tetapi mereka mengatakan bahwa OpenAI dapat melangkah lebih jauh lagi.
Lucie-Aimée Kaffee, seorang peneliti kebijakan terapan di Hugging Face, sebuah perusahaan yang menjadi tuan rumah bagi alat-alat AI, mencatat bahwa kartu sistem OpenAI untuk GPT-4o tidak menyertakan rincian ekstensif tentang data pelatihan model atau siapa yang memiliki data tersebut.
"Pertanyaan tentang persetujuan dalam menciptakan kumpulan data yang begitu besar yang mencakup berbagai modalitas, termasuk teks, gambar, dan ucapan, perlu diatasi," kata Kaffee, dilansir WIRED.
Pihak lain mencatat bahwa risiko dapat berubah seiring dengan penggunaan alat di luar ruangan atau alam liar.
"Tinjauan internal mereka seharusnya hanya menjadi bagian pertama untuk memastikan keamanan AI," kata Neil Thompson, seorang profesor di MIT yang mempelajari penilaian risiko AI.
"Banyak risiko yang baru muncul ketika AI digunakan di dunia nyata. Penting untuk mendata dan mengevaluasi risiko-risiko lain saat model-model baru muncul,” lanjutnya.
Resiko Kecanduan Mode Suara ChatGPT yang Muncul
OpenAI menyebut Antropomorfisme dapat menyebabkan pengguna lebih mempercayai sistem ini bahkan saat "berhalusinasi" dengan informasi yang salah.
Seiring berjalannya waktu, hal ini bahkan dapat memengaruhi hubungan pengguna dengan orang lain.
"Pengguna dapat membentuk hubungan sosial dengan AI, mengurangi kebutuhan mereka akan interaksi manusia - berpotensi menguntungkan individu yang kesepian, tetapi mungkin mempengaruhi hubungan yang sehat," kata dokumen tersebut.
Masalah lain yang muncul dari mode suara termasuk potensi cara baru untuk "jailbreaking" model OpenAI-dengan memasukkan audio yang menyebabkan model melepaskan diri dari batasannya.
Mode suara yang di-jailbreak dapat dibujuk untuk meniru orang tertentu atau mencoba membaca emosi pengguna.
Mode suara juga dapat mengalami kegagalan dalam menanggapi suara acak, OpenAI menemukan, dan dalam satu contoh, penguji memperhatikan bahwa mode tersebut mengadopsi suara yang mirip dengan suara pengguna.
OpenAI juga mengatakan bahwa mereka sedang mempelajari apakah antarmuka suara mungkin lebih efektif dalam membujuk orang untuk mengadopsi sudut pandang tertentu.
Kelebihan
Joaquin Quiñonero Candela, kepala kesiapsiagaan di OpenAI, mengatakan bahwa mode suara dapat berevolusi menjadi antarmuka yang sangat kuat.
Dia juga mencatat bahwa jenis efek emosional yang terlihat pada GPT-4o dapat menjadi positif - misalnya, dengan membantu mereka yang kesepian atau yang perlu melakukan interaksi sosial.
Bukan Cuma ChatGPT
OpenAI tidak sendirian dalam mengenali risiko asisten AI yang meniru interaksi manusia.
Pada bulan April, Google DeepMind merilis sebuah makalah panjang yang membahas potensi tantangan etika yang ditimbulkan oleh asisten AI.
Iason Gabriel, seorang staf ilmuwan riset di perusahaan tersebut mengatakan bahwa kemampuan chatbot untuk menggunakan bahasa "menciptakan kesan keintiman yang tulus.”
Beberapa pengguna chatbot seperti Character AI dan Replika melaporkan adanya ketegangan antisosial yang diakibatkan oleh kebiasaan mengobrol mereka.
Sebuah video TikTok baru-baru ini yang ditonton hampir satu juta kali menunjukkan seorang pengguna yang tampaknya sangat kecanduan dengan Character AI sehingga mereka menggunakan aplikasi tersebut saat menonton film di bioskop.
What's Your Reaction?
-
Like
-
Dislike
-
Funny
-
Angry
-
Sad
-
Wow