Online Gender-Based Violence pada Human Security di Era AI terhadap Perempuan
Online Gender-Based Violence pada Human Security di Era AI terhadap Perempuan

Penulis : Pierca Haya Dhiya Ulhaq (Mahasiswa Hubungan Internasional, Semester 5, UIN Syarif Hidayatullah Jakarta)

Bayangkan pagi buta. Ponsel berdering notifikasi. Sebuah tautan menampilkan video tidak senonoh yang tampak dengan wajah teman, kerabat, atau bahkan Anda, yang diedit berhubungan dengan orang lain. Padahal, tidak pernah pembuatan video, tidak ada consent, namun dampaknya jelas dan jangka panjang. Reputasi runtuh, rasa aman kacau, pekerjaan goyah, dan keterlibatan di ruang publik tiba-tiba takut. Kalau ini hanya ditempatkan sebagai isu keamanan siber, kita kehilangan besar. Secara umum, yang terancam adalah keselamatan, citra, martabat, dan keberlanjutan hidup manusia. Fenomena ini juga memengaruhi keamanan nasional dan pada skala besar juga mengguncang keamanan internasional.

Human security memperhatikan fokus dari negara ke manusia juga. Ketika perempuan menjadi sasaran doksing, peretasan, atau branding non konsensual berbasis AI (Artificial Intelligence), yang hancur bukan hanya privasi. Namun juga keamanan individu, stabilitas mental, ekonomi, dan kohesi komunitas, serta partisipasi politik. Laporan kebijakan pada kancah global menunjukkan skalanya sudah meluas, beberapa survei merekap perempuan yang pernah mengalami kekerasan berbasis teknologi, dengan variasi antarnegara dan metodologi. OGBV (Online Gender-based Violence) menyebar lintas yurisdiksi, bermula dari dunia maya hingga ke dunia nyata. Dampak pada jurnalis, aktivis, akademisi, dan pekerja perempuan membentuk publik kehilangan audiens penting yang menyokong mutu demokrasi; studi global menemukan mayoritas jurnalis perempuan menghadapi Online Gender-Based Violence dan berdampak hingga ke realitas dirinya, terutama mental dan sebagainya.

Masuknya AI menggeser skala dan taraf ancaman. Fitur canggih mempercepat pembuatan gambar dan video palsu yang tidak bisa dipungkiri untuk sulit ditolak oleh khalayak. Biaya rendah, kecepatan tinggi, hambatan teknis patah. Algoritma rekomendasi yang mencapai keterlibatan cenderung mengunggah konten viral dan ekstrem. Efeknya mudah ditebak: konten berbahaya lebih eksis, dibagikan, dan cukup sulit diupayakan dampaknya. Laporan dari berbagai media menyoroti dua perantara yang menguat: disinformasi terorganisir terhadap perempuan dan penyalahgunaan citra diri berbasis AI. Bagi penyintas, setiap waktu penundaan penghapusan, akan memperburuk sistem. Bagi masyarakat, ini menimbulkan efek cemas yang menekan partisipasi perempuan dalam ranah publik.

Di ranah publik, muncul tantangan yang berat. Moderasi yang ketat dapat mengancam kebebasan berekspresi. Teknologi pendeteksi deepfake tidak sempurna. Terdapat risiko degradasi berlebihan dan salah tangkap. Tantangan ini jelas, namun mengabaikan ekosistem tanpa pagar juga keliru. Insentif ekonomi platform yang bergantung pada atensi publik sering memicu dramatisasi dan sensasi. Debat kusir ini tidak seharusnya membuat kita bisu. Ia mendorong solusi berbasis bukti: tata kelola risiko yang transparan, dapat diaudit, dan menghormati hak korban. Standar pengelolaan risiko dari AI menawarkan kerangka alternatif untuk mengidentifikasi, menilai, dan memitigasi kasus risiko sepanjang siklus hidup pada sistem.

Mengapa Ini Juga Soal Keamanan Nasional?

  1. Legitimasi demokrasi. Serangan siber terorganisir terhadap politisi, jurnalis atau pemimpin perempuan menggunakan doksing menyudutkan partisipasi politik dan kualitas deliberasi. Ketika representasi perempuan menurun, kebijakan publik kehilangan perspektif yang diperlukan untuk menjaga kepercayaan publik. Hal ini merupakan dampak keamanan nasional karena membuka ruang polarisasi, delegitimasi pemilu, dan ketidakstabilan politik.
  2. Ketertiban umum dan kohesi sosial. Doksing memicu persekusi luring. Serangan terkoordinasi di platform dapat berubah menjadi bullying massa dan ancaman fisik. Pelemahan kohesi sosial meningkatkan biaya keamanan dan mengalihkan sumber daya dari ancaman lain yang sama mendesak.
  3. Stabilitas ekonomi. OGBV berbasis AI menyusutkan partisipasi kerja perempuan, terutama di sektor formal pada digital dan kreatif. Kehilangan pekerjaan, pendamping hukum, dan pemulihan reputasi menambah perselisihan dalam ekonomi digital. Kepercayaan terhadap transaksi daring turun, investasi dan inovasi juga terhambat.
  4. Beban institusi penegakan hukum. Penyidikan OGBV membutuhkan forensik digital, memastikan bukti, kerja sama antar platform, dan koordinasi lintas yurisdiksi. Tanpa prosedur cepat dan bukti yang jelas, eskalasi kasus meningkat dan rasa aman publik menurun.

Mengapa Ini Juga Soal Keamanan Internasional?

  1. Lintas batas yurisdiksi. Konten berbahaya sering diunggah dari server di negara lain, pelaku memanfaatkan celah hukum dan perbedaan standar pembuktian. Tanpa mekanisme saling mengakui perintah penghapusan dan pertukaran bukti, penegakan hukum lambat sementara konten terus menyebar.
  2. Operasi pengaruh transnasional. OGBV dipakai untuk mendelegitimasi diplomat, jurnalis, dan pemimpin perempuan di negara lain. Serangan ini mudah disangkal, menciptakan ruang abu abu yang meningkatkan risiko miskalkulasi diplomatik.
  3. Proliferasi alat. Fitur generatif dan pipeline otomatisasi yang terbuka memudahkan ekspor kapabilitas pembuatan deepfake. Pergesekan antara ilmu pengetahuan dan pencegahan penyalahgunaan menjadi isu keamanan yang nyata.
  4. Konvergensi dengan konflik. Konten intim non konsensual dapat diperalat sebagai perang psikologis terhadap populasi sipil atau kombatan perempuan. Ini menambah lapisan kerentanan dalam konflik dan menuntut kajian ulang terhadap perlindungan warga sipil.

Upaya yang Rasional

Standar pengelolaan risiko AI dapat menjadi jembatan. Prinsipnya jelas: identifikasi risiko sepanjang siklus sistem, rancangan kendali yang selaras dengan kapabilitas dan dampaknya, uji penyalahgunaan sebelum rilis, pantau setelah penyebaran, menyediakan proses banding yang terarah. Dalam fitur generatif yang mampu membuat citra intim realistis, proteksi tambahan juga penting sejak proses tahapan desain atau sunting video.

Langkah Konkret

Pertama, safety by design: taksonomi penyalahgunaan yang konsisten, friksi yang masuk akal pada unggahan berisiko, red teaming untuk menguji vektor serangan terhadap fitur generatif dan rekomendasi. Kedua, provenance dan preservasi bukti: kredensial asal usul konten membantu publik dan aparat membedakan yang asli dan yang palsu, sementara panduan pengamanan bukti memberi jalur hukum yang lebih kuat bagi penyintas. Ketiga, protokol takedown cepat untuk konten intim non konsensual: mekanisme trusted flagger lintas lembaga, tenggat tegas dua hari untuk kasus berisiko tinggi, serta jalur banding yang manusiawi. Keempat, penilaian dampak algoritmik pada fitur generatif, pencarian, dan rekomendasi yang mengukur bukan hanya akurasi teknis tetapi juga efek cemas terhadap kelompok rentan. Kelima, koalisi respons cepat lintas organisasi untuk pendampingan, forensik, dan eskalasi ke platform.

Apa Lagi yang Harus Ditindak?

Negara dan institusi berwenang harus crosscheck keberhasilan dengan metrik yang bermakna bagi manusia. Cepat penghapusan konten secara menyeluruh. Akses penyintas terhadap pendamping hukum dan psikologis. Kenaikan partisipasi perempuan di ruang publik setelah intervensi. Pengungkapan audit algoritmik dan rencana mitigasinya.

Pada akhirnya, pertanyaannya sederhana. Apa yang ingin kita lindungi terlebih dahulu? Kebutuhan iklan atau martabat manusia? Jika jawabannya yang kedua, maka tidak ada alasan untuk menunda, apalagi menyebarluaskan hoax. Lindungi penyintas lebih dulu, perkuat kebijakan negara melalui perlindungan warga yang aman dan menguatkan stabilitas internasional melalui norma bersama yang dapat dipantau publik.

 

Referensi:

United Nations Development Programme. 1994. Human Development Report 1994: New Dimensions of Human Security. New York: United Nations Development Programme. https://hdr.undp.org/content/human-development-report-1994.

OECD. 2025. “Mapping Policy Responses to Technology‑Facilitated Gender‑Based Violence in the G7 Countries.” OECD Public Governance Policy Papers, no. 75. Paris: OECD Publishing. https://doi.org/10.1787/b0887189-en.

Posetti, Julie, and Nabeelah Shabbir, eds. 2022. The Chilling: A Global Study of Online Violence against Women Journalists. Washington, DC: International Center for Journalists, with UNESCO. https://www.icfj.org/our-work/chilling-global-study-online-violence-against-women-journalists.

UN Women. 2024. AI is Intensifying Violence Against Women and Girls: Infographic and Recommendations. New York: UN Women. https://www.unwomen.org/.

National Institute of Standards and Technology. 2023. Artificial Intelligence Risk Management Framework (AI RMF 1.0). NIST AI 100‑1. Gaithersburg, MD: NIST. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf.