Parapuan.co - Musisi perempuan populer, Taylor Swift, dikabarkan jadi korban deepfake, kejahatan digital di dunia maya.
Foto-foto Taylor Swift yang berbau pornografi beredar luas di media sosial, contohnya saja X (dulunya Twitter).
Melansir dari Kompas.com, foto-foto Taylor Swift yang diedit sedemikian rupa hingga berbau pornografi itu pertama kali beredar di Telegram.
Gambar-gambar deepfake Taylor Swift pertama kali beredar di sebuah grup Telegram yang sering memproduksi konten sejenis.
Konten deepfake Taylor Swift itu pun kemudian beredar luas ke media sosial lain, namun sekarang sudah mulai dihapus, salah satunya yang ada di X.
Mengetahui adanya gambar deepfake dirinya beredar luas di dunia maya, Taylor Swift langsung mengambil tindakan.
Ia dan tim hukumnya berencana melakukan gugatan terhadap pihak-pihak yang mengunggah foto deepfake dirinya berbau pornografi.
Rencananya, gugatan akan dilayangkan pada platform-platform yang menyebarkan konten pornografi menampilkan Taylor Swift hasil deepfake.
Kawan Puan, apakah kamu sudah tahu apa itu deepfake, kejahatan digital yang menimpa Taylor Swift?
Baca Juga: Bukan Hanya Skimming, 2 Kejahatan Digital Ini Juga Perlu Diwaspadai
Deepfake adalah kejahatan digital yang sekarang ini sangat mungkin terjadi, terlebih seiring perkembangan kecerdasan buatan atau artificial intelligence (AI).
Deepfake adalah kecerdasan buatan (AI) yang digunakan untuk membuat video, foto, maupun audio palsu tentang seseorang.
Konten hasil deepfake biasanya menyerupai aslinya dan tampil cukup meyakinkan, sehingga mampu mengecoh orang lain.
Dalam kasus Taylor Swift, foto-fotonya diedit sedemikian rupa dengan kecerdasan buatan, sehingga menjadi konten berbau pornografi.
Sebenarnya, sudah banyak orang yang jadi korban kejahatan digital deepfake seperti Taylor Swift.
Misalnya seperti yang terjadi pada Francesca Mani, 15 tahun, seorang remaja perempuan kelas dua SMA di New Jersey Amerika Serikat.
Ia jadi korban kekerasan berbasis gender online berupa pornografi deepfake.
Melansir dari Teen Vogue, Francesca menemukan bahwa fotonya diedit pada gambar tubuh telanjang orang lain.
Bukan hanya dia, temannya yang lain juga jadi kejahatan pornografi deepfake yang memanfaatkan kecanggihan AI.
Baca Juga: Kisah Remaja Perempuan 15 Tahun Bikin Situs Web untuk Bantu Korban KBGO
Melansir dari The Guardian, perusahaan AI Deeptrace menemukan 15.000 video deepfake online pada September 2019.
Mengejutkannya, 96% dari video tersebut adalah pornografi, dan 99% persen di antara video pornografi itu memetakan wajah selebriti perempuan hingga bintang porno.
Danielle Citron, seorang profesor hukum di Universitas Boston mengatakan, "Teknologi deepfake dijadikan senjata untuk melawan perempuan."
Lantas, apa yang bisa perempuan lakukan untuk mencegah dirinya menjadi korban deepfake seperti yang dialami oleh Taylor Swift?
Dr. Firman Kurniawan S, Pemerhati Budaya dan Komunikasi Digital dalam wawancara bersama PARAPUAN, Selasa, (28/11/2023) mengatakan ada yang bisa dilakukan sebagai langkah pencegahan.
"Hal yang bisa dilakukan perempuan adalah jangan terlalu obral data," tambahnya.
"Bahan bakunya ini data, bisa data foto kita, bisa suara kita bisa gerakan yang kita videokan, itu di-capture oleh mesin AI," jelasnya lagi.
Firman Kurniawan juga menyoroti pentingnya bagi seorang perempuan mengikuti perkembangan AI termasuk paham mengetahui bahaya yang mengintai.
Tujuannya tentu agar bisa melindungi diri dan terhindar dari kejahatan digital yang kian marak.
"Nah, ini merugikan perempuan, ada baiknya jika perempuan makin banyak paham teknologi kemudian mengetahui bahaya yang mengintai, dan bagaimana cara menghindarinya," pungkasnya.
Baca Juga: Dialami Dokter Zie, Ini Sisi Negatif Penggunaan AI yang Merugikan Perempuan
(*)