- CEO Openai mengatakan menggunakan chatgpt untuk terapi memiliki risiko privasi yang serius
- Obrolan pribadi Anda mungkin diekspos jika Openai menghadapi gugatan
- Memberi makan pikiran pribadi Anda ke dalam AI yang buram juga merupakan langkah yang berisiko
Salah satu hasil dari memiliki asisten kecerdasan buatan (AI) seperti chatgpt ke mana pun Anda pergi adalah bahwa orang -orang mulai bersandar pada hal -hal yang tidak pernah dimaksudkan. Menurut CEO OpenAI Sam Altman, itu termasuk terapi dan nasihat kehidupan pribadi – tetapi dapat menyebabkan segala macam masalah privasi di masa depan.
Pada episode baru-baru ini dari akhir pekan terakhir ini w/ theo von podcast, Altman menjelaskan satu perbedaan besar antara berbicara dengan terapis manusia dan menggunakan AI untuk dukungan kesehatan mental: “Saat ini, jika Anda berbicara dengan terapis atau pengacara atau dokter tentang masalah itu, ada hak istimewa yang belum ada di luar negeri.
Salah satu hasil potensial dari itu adalah bahwa Openai akan secara hukum diharuskan untuk batuk percakapan itu adalah untuk menghadapi gugatan, Altman mengklaim. Tanpa kerahasiaan hukum yang Anda dapatkan ketika berbicara dengan dokter atau terapis terdaftar, akan ada sedikit sedikit untuk menghentikan kekhawatiran pribadi Anda ditayangkan kepada publik.
Altman menambahkan bahwa chatgpt sedang digunakan dengan cara ini oleh banyak pengguna, terutama kaum muda, yang mungkin sangat rentan terhadap paparan semacam itu. Tetapi terlepas dari usia Anda, topik -topik percakapan bukanlah jenis konten yang kebanyakan orang akan senang melihat terungkap ke dunia yang lebih luas.
Upaya yang berisiko
Risiko percakapan pribadi Anda dibuka untuk diteliti hanyalah satu risiko privasi yang dihadapi pengguna chatgpt.
Ada juga masalah memberi makan kekhawatiran Anda yang sangat pribadi dan kekhawatiran ke dalam algoritma buram seperti ChatGPT, dengan kemungkinan bahwa hal itu dapat digunakan untuk melatih algoritma Openai dan bocor kembali ketika pengguna lain mengajukan pertanyaan serupa.
Itulah salah satu alasan mengapa banyak perusahaan telah melisensikan versi cincin cincin mereka sendiri dari AI Chatbots. Alternatif lain adalah AI seperti Lumo, yang dibangun oleh Privacy Stalwarts Proton dan fitur enkripsi tingkat atas untuk melindungi semua yang Anda tulis.
Tentu saja, ada juga pertanyaan apakah AI seperti chatgpt dapat menggantikan terapis. Meskipun mungkin ada beberapa manfaat untuk ini, AI apa pun hanya memuntahkan data yang dilatih. Tidak ada yang mampu berpikir asli, yang membatasi keefektifan saran yang dapat mereka berikan kepada Anda.
Apakah Anda memilih untuk membuka atau tidak ke Openai, jelas bahwa ada ladang ranjau privasi di sekitar chatbots AI, apakah itu berarti kurangnya kerahasiaan atau bahaya memiliki pemikiran terdalam Anda digunakan sebagai data pelatihan untuk algoritma yang tidak dapat dipahami.
Ini akan membutuhkan banyak upaya dan kejelasan sebelum meminta terapis AI adalah upaya yang jauh lebih berisiko.