Pada 2023, peretas berhasil mencuri data pribadi milik sekitar 101.000 pengguna ChatGPT.

Bahaya Membagikan Data Pribadi kepada ChatGPT dan Chatbot AI Lainnya

Ilustrasi (Pexels)

PINTOE.CO - Tidak dapat disangkal bahwa ChatGPT dan chatbot AI lainnya telah menjadi "teman bicara" yang mengagumkan. Bahkan, ChatGPT dapat berbincang dengan penggunanya tentang hampir semua hal.

Kemampuan percakapan ChatGPT juga bisa sangat meyakinkan. Bahkan, banyak pengguna merasa nyaman berbagi detail pribadinya dengan chatbot tersebut. Namun, Dominic Bayley dari PCWorld mennjelaskan bahwa tindakan tersebut adalah hal yang buruk atau membahayakan. 

"Anda bukan sedang berbicara dengan pemanggang roti. Segala sesuatu yang Anda sampaikan kepada chatbot AI dapat disimpan di server dan muncul kembali di kemudian hari, sebuah fakta yang membuatnya berisiko secara inheren," tulis Bayley dalam artikelnya.

Mengapa chatbot begitu berisiko? Masalahnya berasal dari cara perusahaan yang menjalankan Large Language Models (LLMs) dan chatbot terkait menggunakan data pribadi pengguna.

Bayley menjelaskan, data manusia pengguna chatbot dikumpulkan dan digunakan oleh perusahaan untuk memperbarui dan melatih model AI mereka agar lebih menyerupai manusia.

Ketentuan layanan OpenAI menjelaskan hak mereka untuk melakukan hal ini saat pengguna menggunakan platform. Ketentuan tersebut menyatakan: "Kami dapat menggunakan data yang Anda berikan kepada kami untuk meningkatkan model kami."

Inilah alasan ChatGPT mencatat segala hal yang pengguna katakan. Kecuali jika pengguna menggunakan fitur privasi baru chatbot yang memungkinkan untuk mengatur agar riwayat percakapan tidak disimpan.

"Jika Anda tidak mengaktifkan fitur tersebut, detail seperti informasi keuangan, kata sandi, alamat rumah, nomor telepon, atau bahkan apa yang Anda makan untuk sarapan dapat menjadi data yang dikumpulkan jika Anda membagikan detail tersebut. Chatbot ini juga menyimpan file yang Anda unggah dan masukan yang Anda berikan," kata Bayley.

Ketentuan ChatGPT juga menyebutkan bahwa chatbot dapat "menggabungkan atau menghapus identitas dari Informasi Pribadi dan menggunakan informasi yang digabungkan tersebut untuk menganalisis efektivitas layanan kami."

Tambahan kecil ini membuka kemungkinan bahwa sesuatu yang telah dipelajari chatbot nantinya dapat diakses publik. Hal ini sesuatu yang cukup mengkhawatirkan.

"Jujur saja, kecil kemungkinan perusahaan yang menjalankan chatbot AI bermaksud menyalahgunakan informasi pribadi yang mereka simpan. Dalam beberapa tahun terakhir, OpenAI telah merilis pernyataan untuk meyakinkan pengguna ChatGPT tentang pengumpulan dan penggunaan data pribadi," ungkap Bayley.

Sebagai contoh, pada Februari tahun ini, ketika Otoritas Perlindungan Data Italia (DPA) menuduh OpenAI melanggar ketentuan General Data Protection Regulations (GDPR) Uni Eropa, OpenAI mengatakan: "Kami ingin AI kami belajar tentang dunia, bukan tentang individu pribadi. Kami secara aktif bekerja untuk mengurangi data pribadi dalam melatih sistem kami seperti ChatGPT, yang juga menolak permintaan untuk informasi pribadi atau sensitif tentang individu."

Namun, menurut PCWorld, pernyataan itu tidak menjamin bahwa data pengguna aman dari pelanggaran. Salah satu pelanggaran terjadi pada Mei 2023, di mana peretas mengeksploitasi kerentanan di pustaka Redis ChatGPT, yang memberikan mereka akses ke data pribadi yang tersimpan dari riwayat percakapan.

"Informasi pribadi yang bocor termasuk nama, nomor jaminan sosial, jabatan, alamat email, nomor telepon, dan bahkan profil media sosial. OpenAI merespons dengan memperbaiki kerentanan tersebut, tetapi hal ini sedikit menghibur bagi sekitar 101.000 pengguna yang datanya telah dicuri," sebut Bayley di PCWorld.

Apa langkah terbaik agar tetap aman menggunakan ChatGPT? Jawabannya adalah dengan tidak terlalu banyak membagikan informasi pribadi kepada ChatGPT. Dengan begitu, pengguna dapat mengendalikan apa yang chatbot ketahui tentang penggunanya.[]

 

Editor: Bisma

bahaya chatgpt