Paradoks Kecerdasan Buatan (AI) di Era Kontemporer: Antara Inovasi dan Ancaman Keamanan Non-Tradisional
Paradoks Kecerdasan Buatan (AI) di Era Kontemporer: Antara Inovasi dan Ancaman Keamanan Non-Tradisional

Penulis : Wazna Bilqisti (Mahasiswa Ilmu Hubungan Internasional)

Di tengah pesatnya perkembangan teknologi, kecerdasan buatan (AI) menunjukkan eksistensinya yang inovatif hingga seringkali dipuji dan diakui sebagai tonggak baru peradaban. Namun, di sisi lain, tanpa adanya kerangka hukum dan etika serta regulasi yang tegas sekaligus berlandaskan pada prinsip kemanusiaan,  kecerdasan buatan (AI) dapat beresiko sebagai boomerang, yang di mana bisa memicu konflik, perpecahan, bahkan krisis kepercayaan, baik di tingkat lokal maupun global. Oleh karena itu, artikel opini ini menyoroti paradoks kecerdasan buatan (AI) di era kontemporer, meninjau baik peluang inovatifnya maupun ancaman serius yang berpotensi muncul dalam konteks keamanan non-tradisional, sekaligus menekankan urgensi pengembangan kebijakan nasional maupun internasional yang sistematis, akuntabel, dan berlandaskan prinsip kemanusiaan untuk mencegah penyalahgunaan teknologi ini.

Pada akhir bulan lalu, yakni 29 September 2025, media sosial diramaikan oleh sebuah poster dalam bentuk billboard yang berisikan beberapa pemimpin dunia, termasuk Presiden Indonesia, Prabowo Subianto. Poster tersebut menampilkan narasi bertuliskan, “Mr. President, Israel stands by your plan. Seal the deal.” Unggahan ini berasal dari Abraham Shield, sebuah koalisi keamanan regional yang dibentuk sebagai respons terhadap serangan Hamas pada 7 Oktober 2023, dengan tujuan untuk memperkuat solidaritas dan koordinasi keamanan di kawasan pasca peristiwa tersebut.

Poster yang diduga dibuat menggunakan kecerdasan buatan (AI) tersebut telah memicu perdebatan luas di berbagai platform sosial media, khususnya X. Unggahan dalam bentuk billboard tersebut menimbulkan gelombang kontroversi dan kritik yang cukup besar, tidak hanya karena isi pesannya yang provokatif, tetapi juga karena kemampuannya dalam memanipulasi persepsi publik melalui visual yang tampak nyata. Hal ini kemudian menjadi titik pemicu bagi munculnya perdebatan sekaligus diskusi yang lebih mendalam mengenai potensi penyalahgunaan teknologi AI dalam membentuk opini publik dan mendorong praktik propaganda politik di ruang digital.

Dari kasus tersebut, muncul satu pertanyaan yang penting untuk kita renungkan; apakah perkembangan kecerdasan buatan (AI) yang semakin pesat dapat menghadirkan ancaman terhadap keamanan dalam bentuk non-tradisional?

Fakta bahwa AI memiliki banyak manfaat yang cukup besar dan berdampak positif bagi kemajuan peradaban manusia adalah hal yang tidak dapat kita pungkiri. Apabila dilihat dari konteks pertahanan dan keamanan tradisional, khususnya dalam segi militer, eksistensi AI dapat berpotensi meningkatkan efisiensi, memperkuat sistem deteksi ancaman, dan menjadi inovasi yang cukup krusial di tengah dinamika kompleksitas global. Namun, di waktu yang sama, kemudahan akses terhadap teknologi AI di kalangan masyarakat umum juga dapat membuka ruang baru bagi potensi penyalahgunaan. Dalam konteks ancaman non-tradisional, AI dapat dimanfaatkan untuk penyebaran disinformasi, manipulasi opini publik, hingga pelanggaran privasi. Hal-hal tersebut menunjukkan sisi lain bahwa perkembangan AI tidak hanya membawa kemajuan, tetapi juga menuntut regulasi yang memadai agar penggunaannya tidak berbalik menjadi sumber ancaman bagi keamanan manusia itu sendiri.

Hingga detik ini, AI sudah semakin berkembang hingga bisa menciptakan berbagai bentuk media (gambar, video, audio) dengan tingkat realisme yang tinggi. Walau saat ini kita masih dapat membedakan antara media hasil rekayasa buatan AI dan media yang asli, baik melalui detail visual yang belum sepenuhnya natural atau kualitas hasil yang masih memiliki kekurangan, garis pemisah tersebut perlahan mulai menipis. Bahkan, dalam waktu yang tidak terlalu lama, kemajuan pesat AI dapat berpotensi menghapus batas antara media realitas dan rekayasa digital, sehingga menjadi tantangan baru yang perlu diantisipasi, terutama dalam konteks keaslian informasi dan kepercayaan publik di ruang digital.

Dalam konteks ancaman keamanan non-tradisional, penggunaan AI bisa berdampak sangat signifikan karena dapat memicu konflik sosial secara bertahap dari skala kecil hingga besar. Bayangkan jika media rekayasa yang diperoleh AI, baik dalam bentuk gambar, video, atau bahkan suara yang dibuat secara realistis, jatuh ke tangan pihak yang tidak bertanggung jawab. Teknologi AI ini dapat berpotensi besar digunakan untuk memenuhi kepentingan tertentu dengan cara memprovokasi ketegangan sosial, membentuk persepsi publik yang menyesatkan, hingga menyebarkan narasi palsu. Situasi semacam ini merupakan bentuk cerminan akan bagaimana AI, yang sejatinya diciptakan untuk inovasi dan efisiensi, juga dapat berpotensi berubah menjadi instrumen manipulatif yang mengancam stabilitas sosial dan kepercayaan publik.

Sebuah media hasil rekayasa kecerdasan buatan (AI) yang menampilkan visualisasi pertengkaran, ujaran kebencian, atau pernyataan provokatif dari tokoh-tokoh penting negara dapat menjadi pemicu ketegangan sosial yang serius. Eskalasinya tidak akan selalu langsung terasa secara eksplisit, namun dapat berkembang secara bertahap, dimulai dari konflik antar kelompok di tingkat domestik, lalu meningkat menjadi isu nasional, bahkan skenario terburuknya bisa berpotensi ke level regional hingga internasional. Hal ini dapat menggambarkan bagaimana teknologi AI, ketika disalahgunakan, mampu memperluas skala konflik sosial melalui persepsi dan emosi publik yang mudah terpengaruh oleh narasi visual yang tampak meyakinkan.

Secara sederhana, teknologi kecerdasan buatan (AI) memang menyimpan potensi besar dalam mendorong kemajuan peradaban manusia serta memperkuat sistem pertahanan negara, terutama jika dilihat dari perspektif keamanan tradisional. Inovasi AI ini mampu meningkatkan efisiensi militer, mempercepat pengambilan keputusan strategis, serta memperkuat sistem deteksi ancaman melalui analisis data yang akurat. Namun, di sisi lain, apabila perkembangan AI ini tidak diimbangi dengan kerangka hukum dan regulasi yang jelas, keberadaannya justru dapat berpotensi menjadi ancaman baru yang bersifat kompleks. Tanpa pengawasan dan etika penggunaan yang kuat, AI dapat berisiko disalahgunakan untuk tujuan destruktif seperti penyebaran disinformasi hingga manipulasi opini publik. Dalam konteks ini, ancaman yang muncul tidak lagi hanya bersifat konvensional seperti serangan militer, melainkan bertambah sekaligus bergeser ke arah ancaman non-tradisional yang berdampak langsung pada keamanan non-tradisional (sosial, politik, dan psikologis masyarakat).

Oleh karena itu, keberadaan kerangka etika dan kebijakan global yang tegas serta tersistematis dalam mengatur penggunaan kecerdasan buatan (AI) ini menjadi kebutuhan yang diperlukan di era digital saat ini. Regulasi semacam ini sangat diperlukan agar perkembangan teknologi tidak berjalan tanpa arah dan tetap berpijak pada nilai-nilai kemanusiaan. Pengawasan yang kuat dan prinsip akuntabilitas harus diterapkan guna memastikan bahwa AI digunakan secara bertanggung jawab, transparan, dan berkeadilan. Tanpa adanya mekanisme tersebut, teknologi AI ini berpotensi dimanfaatkan untuk kepentingan politik, ekonomi, maupun ideologis oleh pihak tertentu, yang pada akhirnya dapat menimbulkan disinformasi masif bahkan hingga dapat memicu krisis kepercayaan publik terhadap institusi maupun sistem pemerintahan.

Beberapa aktor internasional, termasuk negara, kini mulai menunjukkan kesadaran akan pentingnya membentuk kerangka hukum yang komprehensif guna meregulasi perkembangan sekaligus penggunaan kecerdasan buatan (AI). Denmark menjadi salah satu contoh negara yang mengambil langkah konkret dalam isu ini. Mengutip pemberitaan The Guardian, pemerintah Denmark tengah melakukan revisi terhadap undang-undang hak cipta guna memberikan perlindungan lebih kuat terhadap bentuk peniruan digital atas identitas seseorang. Melalui kebijakan ini, setiap individu dijamin memiliki hak hukum atas tubuh, wajah, dan suara mereka sendiri. Upaya tersebut menjadi bagian dari komitmen Denmark dalam memastikan bahwa penggunaan AI tidak melanggar hak serta martabat pribadi manusia, sekaligus bentuk tanggapannya akan meningkatnya penyalahgunaan salah satu produk teknologi AI, yakni deepfake.

Tak hanya Denmark, sebagaimana diinformasikan oleh media berita Council of Europe, pada tahun 2024 Dewan Eropa juga telah mengadopsi Framework Convention on Artificial Intelligence and Human Rights, Democracy, and the Rule of Law (CETS No. 225),  yang menjadi perjanjian internasional pertama dengan kekuatan hukum mengikat untuk memastikan pemanfaatan sekaligus penggunaan kecerdasan buatan (AI) tetap selaras dengan prinsip kemanusiaan, demokrasi, dan supremasi hukum. Dokumen regulasi hukum tersebut menekankan urgensi perlindungan hak asasi manusia, penerapan transparansi dan akuntabilitas, serta penghormatan terhadap martabat individu di setiap tahapan pengembangan hingga penggunaan sistem kecerdasan buatan (AI). Prinsip-prinsip yang diatur di dalamnya mencakup perlindungan data pribadi, identifikasi terhadap konten yang dihasilkan oleh AI, serta upaya pencegahan terhadap penyalahgunaan teknologi yang berpotensi mengancam integritas sosial dan nilai-nilai demokratis.

Langkah-langkah yang telah diambil oleh berbagai aktor internasional tersebut telah menunjukkan bahwa pengaturan terhadap kecerdasan buatan (AI) tidak lagi sekadar persoalan teknis, melainkan merupakan bagian integral dari upaya membangun tatanan keamanan global yang adil dan bertanggung jawab, serta sesuai dengan prinsip kemanusiaan. Meski demikian, keberadaan regulasi dan kebijakan internasional tidak akan efektif apabila tidak disertai dengan adanya peningkatan kesadaran publik yang memadai. Penguatan literasi digital serta pemahaman etika dalam penggunaan teknologi berbasis AI menjadi hal yang krusial agar masyarakat mampu memahami cara kerja algoritma sekaligus mengenali potensi penyimpangan atau manipulasi informasi yang dapat muncul dari penyalahgunaan kecerdasan buatan (AI) itu sendiri. Dalam hal ini, keterlibatan aktif media, kalangan akademisi, dan lembaga sosial memiliki peran penting dalam menumbuhkan kesadaran kritis masyarakat terhadap perkembangan teknologi yang dapat memengaruhi stabilitas sosial maupun politik secara lebih luas.

Melihat pentingnya langkah-langkah tersebut, kini menjadi momentum bagi setiap negara lainnya, termasuk Indonesia, untuk merumuskan strategi kebijakan nasional yang tidak hanya berorientasi pada optimalisasi teknologi kecerdasan buatan (AI) dalam sektor ekonomi dan industri, tetapi juga berfokus pada perlindungan masyarakat dari risiko sosial, politik, maupun etis. Selain itu, kolaborasi lintas sektor antara pemerintah, akademisi, pelaku industri, dan masyarakat sipil juga perlu diperkuat guna menciptakan tata kelola teknologi yang transparan, inklusif, dan berpihak pada kepentingan publik. Indonesia dapat meninjau berbagai model tata kelola AI yang telah diterapkan oleh berbagai aktor internasional lain dan menyesuaikannya dengan konteks sosial, budaya, serta politik domestik, agar inovasi yang dihasilkan tetap selaras dengan nilai-nilai kemanusiaan dan mendukung stabilitas nasional.

Pada akhirnya, kemajuan kecerdasan buatan (AI) ini merepresentasikan paradoks besar dalam era modern. Di satu sisi, perkembangan teknologi ini menghadirkan efisiensi, kemudahan, dan inovasi yang mampu mempercepat berbagai aspek kehidupan dan keamanan. Namun di sisi lain, perkembangan teknologi AI ini juga membuka potensi  ruang bagi munculnya ancaman baru yang kompleks dan sulit dikendalikan. Hal ini memperlihatkan bahwa tantangan utama dengan berkembang pesatnya teknologi kecerdasan buatan (AI) ini bukan lagi tentang menolak akan eksistensi ataupun inovasinya, melainkan tentang bagaimana mengarahkan serta mengelolanya agar tetap berlandaskan pada nilai-nilai kemanusiaan.

Dengan demikian, tantangan utama dalam menghadapi era perkembangan kecerdasan buatan (AI) tidak hanya terletak pada kemampuan manusia untuk terus menciptakan inovasi, tetapi juga pada sejauh mana berbagai aktor baik di tingkat domestik maupun global mampu menanamkan nilai-nilai moral, rasa tanggung jawab, serta prinsip transparansi dalam setiap tahap penerapan teknologi AI ini sendiri. Eksistensi akan kecerdasan buatan (AI) tidak seharusnya diposisikan sebagai ancaman non-tradisional yang dapat menimbulkan ketakutan, melainkan sebagai alat kemajuan yang perlu dikelola secara bijaksana dan berlandaskan etika. Dengan kompleksnya dinamika global di era kontemporer saat ini, tantangan utama yang cukup krusial ialah menjaga keseimbangan antara inovasi dan moralitas, atau dengan kata lain, antara efisiensi dan empati. Jika manusia gagal menavigasi perkembangan ini dengan prinsip kemanusiaan sebagai fondasi, maka teknologi kecerdasan buatan (AI) ini justru bisa menjadi bumerang yang menggerus kepercayaan dan ketidakstabilan sosial. Oleh karena itu, dibutuhkan sinergi dan komitmen bersama dari berbagai pemangku kepentingan di tingkat nasional dan internasional agar arah pengembangan teknologi AI ini tetap berpijak pada tujuan utamanya, yaitu memperkuat kesejahteraan dan kualitas hidup manusia, khususnya dari aspek keamanan, baik itu tradisional maupun non-tradisional.