AI: Pengganda Kekuatan Militer atau Pemicu Ketimpangan Strategis Baru?
AI: Pengganda Kekuatan Militer atau Pemicu Ketimpangan Strategis Baru?

Penulis : Marsha Azzahra Asyuranissa Jumantara Putri, Mahasiswa Hubungan Internasional

Kecerdasan Buatan (AI) tidak lagi sekadar tren teknologi, melainkan sebuah transformasi ketiga dalam sejarah peperangan menyamai dampak penemuan mesiu yang digunakan sejak 904 Masehi dan bom atom yang digunakan dalam Perang Dunia II. Militerisasi AI menandai perubahan paradigma perang yang mendasar, di mana teknologi tersebut berpotensi menciptakan medan tempur yang aman bagi personel militer, namun di sisi lain, jika digunakan untuk menyerang, dapat mengakibatkan kerugian yang jauh lebih besar bagi kehidupan manusia.

AI dan Revolusi Industri 4.0 yang ditandai oleh konvergensi teknologi fisik, digital, dan biologis tidak hanya berfokus pada sistem siber-fisik dan otomatisasi cerdas, tetapi juga secara mendalam mengubah pasar tenaga kerja dan struktur politik-ekonomi. Hal ini berpotensi meningkatkan konflik domestik, menciptakan job displacement skala besar, dan memperlebar kesenjangan digital. Konsep useless class muncul yang di mana sebagian manusia tidak lagi memiliki nilai ekonomi karena digantikan oleh AI dan mesin. Ketidakpuasan sosial, radikalisasi, dan ketidakstabilan politik ini berpotensi meningkatkan terorisme domestik dan konflik sipil di negara-negara yang tidak siap menghadapi transisi.

Dilema utama terletak pada dualitas peran AI dalam konteks internasional, apakah AI berfungsi sebagai pengganda kekuatan militer atau force multiplier yang unggul, ataukah ia justru bertindak sebagai pemicu ketimpangan strategis baru yang mengancam stabilitas global? Kekhawatiran ini bukanlah hal yang asing lagi sebab para ahli terkemuka seperti Elon Musk dan Stephen Hawking telah memperingatkan bahwa AI merupakan ancaman eksistensial terbesar manusia dan pengembangannya berarti akhir dari umat manusia.

AI sebagai Pengganda Kekuatan atau Force Multiplier: Keunggulan Taktis dan Logistik

Di medan tempur, AI berfungsi sebagai force multiplier, yang berarti AI dapat meningkatkan efektivitas sistem pertahanan dan senjata tanpa harus menambah jumlah pasukan atau sumber daya militer secara besar-besaran. Keunggulan ini didasarkan pada empat pilar utama:

Internet of Battlefield Things (IoBT) dan Sentralitas Data

Berbeda dengan perang tradisional yang mengandalkan kekuatan jumlah dan senjata fisik, kini data dan AI memainkan peran sentral. Militer modern beroperasi dalam kerangka IoBT, yaitu jaringan perangkat militer yang saling terhubung. Teknologi ini memungkinkan pengumpulan data secara langsung dan terus-menerus dari area konflik. Perangkat seperti sensor yang terpasang pada senjata, kendaraan, atau perlengkapan prajurit mampu mengirimkan informasi strategis seperti posisi lawan, keadaan lingkungan, hingga ancaman tak terduga ke pusat kendali secara real-time.

Kecepatan Mesin dan Superioritas C3I

AI, terutama yang berbasis machine learning digunakan untuk mendukung sistem komando, kontrol, komunikasi, dan intelijen (C3I). Peran AI mencakup deteksi ancaman, pengambilan keputusan serangan, targeting otomatis, dan analisis intelijen secara real-time. Karena bekerja pada kecepatan mesin atau machine-speed, AI memungkinkan pengambilan keputusan yang jauh lebih cepat dari kemampuan manusia dalam hitungan detik. Proses yang lebih efisien ini memberikan keunggulan signifikan di medan tempur multi-domain seperti daratan, laut, udara, luar angkasa, dan siber.

Drone Otonom dan Logistik Militer

Perangkat tempur berbasis AI seperti drone dapat dikirim ke area lawan tanpa melibatkan risiko langsung bagi pilot manusia. Akal imitasi yang tertanam di dalamnya mampu mendeteksi serta mengevaluasi target secara otomatis, mempercepat proses pengambilan keputusan dan meningkatkan akurasi serangan. Selain itu, AI juga dimanfaatkan untuk mendukung logistik militer, di mana kendaraan tanpa awak dapat mengirimkan perlengkapan ke area rawan atau mengevakuasi prajurit yang terluka, secara langsung mengurangi risiko keselamatan nyawa manusia.

Ancaman Eskalasi Tak Disengaja dan Manipulasi Sistem AI

AI juga membawa risiko inheren yang dapat memicu eskalasi konflik secara tidak disengaja atau inadvertent escalation, bahkan tanpa niat jahat awal dari salah satu pihak. Dalam situasi krisis, waktu respons yang terlalu cepat akibat machine-speed dapat meninggalkan pemimpin politik dan militer tanpa cukup waktu untuk berpikir matang. Hal ini meningkatkan risiko keputusan gegabah. Selain itu, AI dan siber mempercepat dan menyamarkan aksi-aksi militer yang sebelumnya mudah dikenali. Misalnya, aksi cyberespionage atau mata-mata digital dapat disalahpahami sebagai serangan awal atau preemptive strike, atau serangan siber untuk pengumpulan data dapat dianggap sebagai niat menyerang nuklir. Konsep inadvertent escalation menjelaskan bagaimana konflik bisa membesar secara tidak direncanakan karena salah persepsi niat musuh, kesalahan sistem otomatis, atau tidak adanya waktu untuk verifikasi informasi.

Kerentanan Manipulasi Siber dan Data Palsu

Sistem AI sangat bergantung pada data input dan pelatihan (training data), yang membuatnya rentan terhadap manipulasi siber yang sangat berbahaya. Jenis manipulasi meliputi:

 Spoofing: Penipuan data sensor, seperti membuat radar mendeteksi ancaman palsu.

 Deepfake: Video/suara palsu yang realistis yang dapat memprovokasi militer atau pemimpin politik.

Data Poisoning: Menyusupkan data pelatihan berbahaya agar AI membuat kesimpulan yang salah.

Dampak dari manipulasi ini sangat fatal dimana AI dapat memberikan rekomendasi strategi yang salah. Misalnya, mengenali target sipil sebagai target militer, salah mengidentifikasi niat musuh, atau salah membaca sinyal diplomatik sebagai tanda serangan. Ini dapat memicu konflik bersenjata hanya karena kesalahan teknis atau manipulasi data.

Penguasaan AI yang tidak merata menciptakan ketimpangan kekuatan militer dan mempercepat perlombaan senjata global. Negara-negara dengan AI canggih akan memiliki keunggulan strategis yang besar, mendorong negara lain untuk mengembangkan AI militer sendiri bahkan tanpa kesiapan etika atau keamanan yang memadai.

AI membuat serangan siber menjadi lebih otomatis, cepat, tersembunyi, dan dapat dilakukan dalam skala besar serta simultan pada infrastruktur vital seperti sistem energi, keuangan, atau komunikasi. Jenis serangan ini meliputi Advanced Persistent Threats (APT) yang menyusup perlahan dan weaponized malware yang bisa belajar dari sistem target untuk menghindari deteksi. Dampaknya, infrastruktur sipil bisa lumpuh dalam waktu singkat. Hal ini dapat memicu konflik bersenjata, sebab negara korban bisa salah mengira serangan dilakukan oleh negara musuh yang padahal bisa jadi oleh aktor non-negara dan bereaksi secara militer.

AI memudahkan produksi dan penyebaran konten palsu yang sangat meyakinkan, seperti deepfakes dari tokoh politik/militer dan konten berita palsu yang disebarkan secara masif melalui bot AI. Teknologi seperti GANs atau Generative Adversarial Networks dan Natural Language Generation menjadi kunci dalam memproduksi konten deepfake dan berita otomatis. Dampaknya adalah peningkatan ketidakpercayaan publik dan membesarnya tingkat ketegangan antarnegara, karena disinformasi dapat dianggap sebagai bukti niat jahat. Hal ini membuat politik luar negeri dan diplomasi menjadi kacau karena sulit membedakan pernyataan asli atau palsu.

Risiko Keamanan Nuklir

Sistem senjata nuklir modern sangat bergantung pada komunikasi digital (C3I), jaringan komputer militer, sensor, dan proses peluncuran yang terhubung secara elektronik. Serangan siber dapat menyusup, mengendalikan, memberi sinyal palsu atau spoofing, atau menginfeksi jaringan kontrol senjata melalui malware. Dampaknya, negara bisa kehilangan kontrol terhadap senjata nuklirnya, atau sistem bisa meluncurkan serangan karena kesalahan teknis atau sinyal palsu. Serangan ini sulit dideteksi dan dilacak secara real-time saat krisis.

Ancaman Eksistensial terhadap Arsitektur Perdamaian Global

AI, khususnya dalam bentuk Lethal Autonomous Weapons Systems (LAWS), secara langsung mengancam arsitektur perdamaian internasional dan norma-norma kemanusiaan yang telah dibangun. LAWS adalah sistem senjata otonom yang dapat menghapus kendali manusia dalam keputusan untuk membunuh (lethal autonomous weapons systems). Isu "robot pembunuh" ini sempat dibahas dalam konferensi PBB di Jenewa pada April 2015. LAWS mengikis norma larangan penggunaan kekuatan dan penyelesaian damai sengketa internasional, dan dapat mengurangi ambang batas untuk perang.

Militerisasi AI berpotensi mendisrupsi tiga domain utama perdamaian dan keamanan internasional yang selama ini menjadi pilar:

Hukum Internasional dan Larangan Penggunaan Kekuatan: AI mempercepat eskalasi konflik tanpa akuntabilitas yang jelas. Larangan penggunaan kekuatan dilemahkan oleh penggunaan senjata AI tanpa aktor yang dapat dimintai pertanggungjawaban.

Norma dan Rezim Keamanan Kemanusiaan: LAWS dapat melemahkan hukum humaniter internasional dan hak asasi manusia. Prinsip proporsionalitas dan akuntabilitas menjadi sulit diterapkan karena keputusan membunuh diambil oleh mesin, bukan manusia. Tren global menuju pelarangan senjata yang tidak membedakan dan menyakiti warga sipil (seperti ranjau dan cluster bomb) terancam mengalami kemunduran oleh LAWS.

Kerja Sama Global untuk Masalah Bersama: Perhatian internasional dapat tersedot ke balapan senjata AI alih-alih pembangunan dan isu iklim. AI berpotensi dialihkan dari penggunaannya untuk kebaikan bersama menjadi senjata, bertentangan dengan prinsip Piagam PBB Pasal 26 dan Tujuan Pembangunan Berkelanjutan (SDGs).

Menuju Tata Kelola Keamanan Preventif dan Norma Baru

Mengingat risiko eksistensial yang ditimbulkan AI, diperlukan kerangka kerja yang didasarkan pada prinsip kehati-hatian atau preventive security governance. Kerangka ini menekankan bahwa beban pembuktian harus berada pada pendukung senjata tersebut untuk mencegah potensi kerugian sebelum terjadi. Proses pengambilan keputusan harus inklusif dan transparan. Selain itu, terdapat preseden historis yang optimis dimana dunia telah berhasil menciptakan 22 traktat internasional yang mencegah proliferasi senjata berbahaya (seperti pelarangan ranjau darat dan senjata laser buta). Ini memberikan dasar bagi perlunya seruan global untuk melarang LAWS sebelum penggunaannya meluas. Seruan ini didukung oleh lebih dari 1.000 ahli dan didukung oleh gerakan masyarakat sipil seperti Campaign to Stop Killer Robots.

Diperlukan juga norma hukum baru dan gerakan global kolaboratif termasuk industri dan masyarakat sipil. Regulasi internasional terkait penggunaan AI dalam pertahanan dan keamanan adalah suatu keharusan untuk memastikan akuntabilitas manusia tetap ada dalam rantai komando.

Mengendalikan Dualitas Kekuatan

AI jelas merupakan pengganda kekuatan militer yang revolusioner, menawarkan keunggulan taktis melalui kecepatan mesin dan efisiensi IoBT. Namun, potensi AI sebagai pemicu ketimpangan strategis baru jauh lebih mengkhawatirkan. Ancaman terbesar bukan hanya terletak pada siapa yang memiliki teknologi terbaik, melainkan pada risiko eskalasi tak disengaja, manipulasi siber terhadap sistem vital, dan erosi fundamental terhadap Hukum Humaniter Internasional akibat LAWS.

Jika AI memang berpotensi menjadi "akhir dari umat manusia" seperti yang diperingatkan para ilmuwan, maka fokus global harus bergeser dari perlombaan senjata menuju tata kelola keamanan preventif. Pengendalian manusia yang bermakna atau meaningful human control harus menjadi norma utama, didukung oleh regulasi internasional yang ketat dan kolaborasi global. Tanpa itu, revolusi AI dalam militer akan menjadi warisan kemanusiaan yang paling destruktif.