Sejauh Mana AI seperti ChatGPT Bisa Korek Informasi Pribadi

Jumat,28 April 2023 - 08:09:25 WIB
Dibaca: 355 kali

Perkembangan penggunaan teknologi kecerdasan buatan (AI) chatbot mencuatkan isu keamanan data pribadi dan lainnya. Sejauh apa sebenarnya teknologi AI bisa mengorek informasi personal dan privasi penggunanya? Dikutip dari Engadegt, AI chatbot dalam teknologi sebetulnya bukan barang baru. Namun, pembuatan ChatGPT oleh OpenAI dan Bard oleh Google melestakan pengunaan teknologi tersebut. Pasalnya, AI seperti di ChatGPT mampu membantu memecahkan berbagai masalah yang dihadapi pengguna, mulai dari merancang kode untuk perangkat lunak, menulis puisi dan esai. Namun di balik hal positif tersebut, AI juga memunculkan kekhawatiran seputar misinformasi, disinformasi, plagiarism, dan malware hasil rekayasa mesin. AI chatbot seperti ChatGPT sebetulnya dilatih lewat jumlah data yang luar biasa agar dapat mereplikasi interaksi mirip manusia. Data-data dalam jumlah signifikan itu mayoritas diturunkan dari repository speerti Common Crawl. Seperti namanya,  Common Crawl telah mengumpulkan data bertahun-tahun dengan ukura petabyte hanya dengan meraup dan menghimpun situs terbuka. “Model-model seperti ini dilatih dengan sebuah set data yang besar dan tersedia di internet secara umum,” kata Megha Srivastava, Mahasiswa PhD dari Departemen Ilmu Komputer Standford.

Pada ChatGPT dan Bard, kedua AI itu diklaim menggunakan  porsi yang ‘terfilter’ dari data di Common Crawl. Namun demikian, mengingat besarnya data tersebut “tidak mungkin bagi siapa pun untuk melihat data dan membersihkannya,”ujar Srivastava. Karena itulah, tidak ada yang menjamin data yang tersedia di internet tidak mengandung hal yan sifatnya pribadi. Pasalnya, data tersebut bisa saja tersedia entah karena kesalahan pribadi, atau kecerobohan pihak ketiga dalam menangani keamanan data. Baru-baru ini, kolumnis Bloomberg Dave Lee menggunakan Twitter bahwa ketika seseorang meminta ChatGPT mengirim percakapan di platform terenkripsi seperti Signal, ChatGPT memberikan nomor telponnya yang asli. Hal tersebut mungkin saja tidak sengaja. Namun informasi apa saja yang dapat diakses oleh ChatGPT itu tetap patut dipertimbangkan. “Sepertinya OpenAI tidak ingin mengumpulkan informasi spesifik seperti data kesehatan dan mengatribusikannya ke seseorang untuk melatih modelnya. Tetapi apakah data-data itu bisa ada di model tersebut? Tentu saja,” kata David Hoelzer dari SANS Institute. OpenAI sendiri tidak merinci soal estimasi yang dibuat untuk melindungi data pribadi. Pihak perusahaan juga tak membeberkan dengan jelas penanganan informasi personal yang terindektifikasi, yang mungkin dikumpulkan dalam model latihannya.

Namun Chat GPT dalam kolom percakapan mengklaim “deprogram mengikuti standar etik dan legal yang melindungi informasi personal dan privat penggunanya” ChatGPT juga “tidak memiliki akses ke informasi personal kecuali jika itu disediakan untuk saya”. Dalam situs kebijakan privasinya, OpenAI menyebutkan beberapa informasi personal penggunanya antara lain informasi akun, konten pengguna, informasi komunikasi (nama, informasi kontak, dan konten pesan yang dikirimkan), serta informasi media social. OpenAI mengklaim, informasi seputar hal-hal tersebut akan dikumpulkan jika pengguna “membuat akun untuk menggunakan layanan atau berkomunikasi dengan kami.” Kendati demikian, OpenAI menyebut ada informasi yang diterima secara otomatis dari penggunaan layanan mereka. Informasi tersebut adalah data log, data penggunaan, informasi perangkat (nama perangkat, system operasi, peramban yang digunakan), cookies, dan analytics. Dalam halaman FAQ-nya, OpenAI juga memperingatkan pengguna tidak membagikan informasi sensitive ke ChatGPT. Pasalnya baik pengguna dan ChatGPT “tidak dapat menghapus perintah spesifik dari rekam jejak pengguna.” Untuk Google Bard, pihak perusahaan tidak menyediakan kebijakan privasi sendiri melainkan menggunakan kebijakan yang sama dengan yang digunakan oleh produk google lainnya. Percakapan dengan Bard tidak harus disimpan ke akun google pengguna. Selain itu, mereka juga dapat mengahapus percakapan tersebut via google. “Untuk membangun dan mempertahankan kepercayaan pengguna, mereka harus sangat transparan seputar kebijakan privasi dan prosedur perlindungan data di bagian depan,” kata Rishi Jaitly, Professor di Virginia Tech. (lth)

Source: https://www.cnnindonesia.com/teknologi/20230411124907-185-936176/sejauh-mana-ai-seperti-chatgpt-bisa-korek-informasi-pribadi


Untag Surabaya || SIM Akademik Untag Surabaya || Elearning Untag Surabaya || Sistem Untag Surabaya|| Sistekin Untag Surabaya