AI dalam Serangan Iran, Teknologi Canggih atau Kesalahan Fatal?

13 Maret 2026

7
Min Read

Jakarta – Citra satelit yang mengerikan memperlihatkan kehancuran total pasca serangan udara di sebuah sekolah dasar di Iran. Serangan yang diduga menggunakan rudal Tomahawk Amerika Serikat ini merenggut nyawa sedikitnya 175 orang, mayoritas adalah siswi muda. Rekaman drone memperlihatkan gambar pilu penggalian puluhan kuburan massal, menambah luka mendalam atas tragedi ini.

Peristiwa tragis ini terjadi di tengah eskalasi konflik antara Amerika Serikat dan Israel melawan Iran yang telah berlangsung sejak akhir bulan lalu. Serangan udara tersebut diduga menargetkan kompleks militer Iran yang berdekatan dengan sekolah, namun dampaknya justru menghantam institusi pendidikan, menimbulkan pertanyaan serius tentang akuntabilitas dan teknologi yang digunakan.

Kengerian serangan ini semakin diperparah dengan munculnya dugaan keterlibatan kecerdasan buatan (AI) dalam pemilihan target. Laporan sebelumnya menyebutkan bahwa militer Amerika Serikat menggunakan AI bernama Claude, yang dikembangkan oleh Anthropic, untuk mengidentifikasi sasaran selama operasi di Iran. Pertanyaan krusial pun muncul: apakah AI ini berperan dalam salah sasaran yang berujung pada jatuhnya korban sipil di sekolah tersebut?

Keterlibatan AI dalam Operasi Militer AS

Dalam dunia militer modern, pemanfaatan teknologi canggih seperti kecerdasan buatan (AI) semakin lazim. AI menawarkan kemampuan analisis data yang cepat dan presisi, yang sangat krusial dalam pengambilan keputusan strategis di medan perang. Laporan mengenai penggunaan AI Claude oleh militer AS dalam serangan di Iran menggarisbawahi tren ini.

Claude, sebagai model AI yang dikembangkan oleh Anthropic, dirancang untuk memproses dan menganalisis informasi dalam jumlah besar. Dalam konteks militer, teknologi semacam ini dapat digunakan untuk mengidentifikasi pola, memprediksi pergerakan musuh, dan yang paling krusial, membantu dalam penentuan sasaran serangan.

Namun, penggunaan AI dalam penentuan target bukanlah tanpa risiko. Sistem AI, sehebat apapun teknologinya, tetaplah bergantung pada data yang diberikan dan algoritma yang dirancang oleh manusia. Kesalahan dalam data input, kelemahan dalam algoritma, atau bahkan faktor eksternal yang tidak terduga dapat menyebabkan hasil yang tidak diinginkan.

Dalam kasus serangan di sekolah Iran, spekulasi mengenai peran AI Claude semakin menguat ketika pihak Pentagon enggan memberikan konfirmasi atau bantahan tegas mengenai keterlibatan AI dalam penentuan target. Sikap ini menimbulkan kekhawatiran bahwa AI mungkin saja membuat kesalahan identifikasi, yang berujung pada penargetan yang keliru dan berdampak fatal pada fasilitas sipil.

Analisis Latar Belakang Konflik

Perlu dipahami bahwa serangan ini terjadi dalam konteks konflik yang lebih luas. Amerika Serikat dan Israel telah terlibat dalam ketegangan yang meningkat dengan Iran sejak akhir bulan lalu. Eskalasi ini sering kali melibatkan serangan balasan dan tindakan militer yang bertujuan untuk mengendalikan ancaman atau membalas serangan sebelumnya.

Dalam situasi konflik seperti ini, kecepatan dan efektivitas sangatlah penting. Militer AS, seperti banyak angkatan bersenjata lainnya, terus mencari cara untuk meningkatkan kemampuan operasional mereka melalui adopsi teknologi baru. AI dipandang sebagai salah satu solusi untuk meningkatkan kecepatan analisis intelijen dan akurasi penargetan.

Namun, kompleksitas medan perang modern juga menghadirkan tantangan tersendiri. Lingkungan yang dinamis, informasi yang terus berubah, dan potensi adanya target sipil yang berdekatan dengan sasaran militer menuntut kehati-hatian ekstra. Di sinilah pertanyaan mengenai sejauh mana AI dapat diandalkan tanpa pengawasan manusia yang memadai menjadi krusial.

Misteri di Balik Penolakan Pentagon

Ketika ditanya oleh media mengenai peran AI dalam pengeboman sekolah di Iran, juru bicara Pentagon memilih untuk tidak memberikan jawaban yang jelas. Sikap ini, alih-alih meredakan kekhawatiran, justru semakin memicu spekulasi. Penolakan untuk mengonfirmasi atau menyangkal secara langsung membuka kemungkinan bahwa AI memang memiliki andil dalam tragedi tersebut.

Jika AI terlibat, maka pertanyaan selanjutnya adalah bagaimana kesalahan itu bisa terjadi. Apakah sistem AI salah menginterpretasikan data? Apakah data yang digunakan untuk melatih AI sudah tidak relevan lagi? Atau mungkinkah ada faktor lain yang belum terungkap?

Penolakan Pentagon ini juga dapat diartikan sebagai upaya untuk menghindari tanggung jawab langsung, terutama jika terbukti bahwa kesalahan berasal dari sistem otonom yang mereka gunakan. Dalam konflik bersenjata, akuntabilitas adalah isu yang sangat sensitif, dan menyalahkan teknologi bisa menjadi cara untuk mengalihkan perhatian dari kesalahan manusia.

Upaya Awal Pengalihan Tanggung Jawab

Awalnya, baik Amerika Serikat maupun Israel berusaha untuk tidak mengakui tanggung jawab atas serangan tersebut. Bahkan, Presiden AS Donald Trump sempat melontarkan pernyataan kontroversial yang menyalahkan Iran atas kematian anak-anak mereka sendiri, seolah-olah serangan itu adalah tindakan yang disengaja oleh pemerintah Iran terhadap rakyatnya.

Namun, seiring berjalannya waktu dan semakin banyaknya bukti yang terkumpul, narasi tersebut mulai bergeser. Laporan dari The New York Times mengutip pejabat AS yang akhirnya mengonfirmasi bahwa serangan rudal Tomahawk yang diluncurkan oleh militer AS memang bertanggung jawab atas tragedi di sekolah tersebut. Konfirmasi ini menjadi pukulan telak bagi upaya pengalihan tanggung jawab sebelumnya.

Kesalahan Koordinat dan Data Kedaluwarsa

Penyelidikan awal mengungkap akar permasalahan yang lebih dalam, yaitu kesalahan dalam proses penentuan koordinat target. Sumber yang mengetahui masalah ini melaporkan kepada The New York Times bahwa para perwira di Komando Pusat AS membuat koordinat target untuk serangan tersebut dengan menggunakan data yang sudah kedaluwarsa. Data ini sendiri diberikan oleh Badan Intelijen Pertahanan (Defense Intelligence Agency).

Penggunaan data intelijen yang sudah tidak relevan merupakan kesalahan fundamental dalam operasi militer. Di medan perang yang dinamis, informasi yang akurat dan terkini adalah kunci keberhasilan. Mengandalkan data lama berisiko tinggi menyebabkan salah sasaran, seperti yang terjadi pada kasus sekolah di Iran ini.

Penyelidikan Lebih Lanjut: AI, Program Pengolahan Data, atau Lainnya?

Lebih lanjut, The New York Times melaporkan bahwa pihak militer AS sedang melakukan penyelidikan mendalam untuk menentukan penyebab pasti salah sasaran tersebut. Penyelidikan ini mencakup kemungkinan peran dari berbagai elemen teknologi, termasuk:

  • Model kecerdasan buatan (AI)
  • Program pengolahan data
  • Sarana pengumpulan intelijen teknis lainnya

Penyelidikan ini penting untuk memahami apakah AI Claude benar-benar membuat kesalahan dalam identifikasi target, atau apakah kesalahan tersebut berasal dari sistem lain yang digunakan dalam rantai komando dan kontrol.

Disebutkan pula bahwa AI Claude dilaporkan bekerja sama dengan Maven Smart System, sebuah sistem yang dimiliki oleh Badan Intelijen Geospasial Nasional (National Geospatial-Intelligence Agency). Keduanya diduga digunakan untuk mengidentifikasi titik-titik penting sasaran di wilayah Iran. Integrasi berbagai sistem intelijen ini seharusnya meningkatkan akurasi, namun dalam kasus ini, justru berujung pada tragedi.

Kesalahan Manusia Tetap Menjadi Akar Masalah

Terlepas dari hasil penyelidikan yang masih berjalan, para pejabat AS yang dikutip oleh The New York Times menekankan bahwa pada akhirnya, pengeboman sekolah tersebut merupakan kesalahan manusia (human error). Pernyataan ini mengindikasikan bahwa meskipun teknologi canggih seperti AI mungkin terlibat, keputusan akhir dan tanggung jawab tetap berada di tangan manusia.

Kesalahan manusia bisa terjadi dalam berbagai bentuk, mulai dari kelalaian dalam memverifikasi data, kegagalan dalam menerapkan prosedur standar operasional, hingga tekanan waktu yang menyebabkan pengambilan keputusan terburu-buru. Dalam kasus ini, penggunaan data kedaluwarsa yang diberikan oleh Badan Intelijen Pertahanan menunjukkan adanya celah dalam rantai intelijen dan verifikasi.

Bukti Citra Satelit: Sekolah Telah Berubah

Analisis lebih lanjut oleh The New York Times terhadap citra satelit historis yang berasal dari tahun 2013 memberikan gambaran yang lebih jelas. Citra tersebut menunjukkan bahwa sekolah tersebut telah dipagari dan dipisahkan dari pangkalan militer di dekatnya antara tahun 2013 dan 2016.

Perubahan fisik ini seharusnya menjadi indikator jelas bahwa fasilitas tersebut bukan lagi bagian dari kompleks militer yang ditargetkan. Fakta bahwa para pejabat Komando Pusat AS masih bekerja dengan informasi yang usang, bahkan bertahun-tahun setelah perubahan tersebut, sangat mengkhawatirkan. Ini menunjukkan adanya kegagalan sistemik dalam pembaruan dan verifikasi data intelijen.

Jika data intelijen sudah diperbarui secara berkala dan akurat, kemungkinan besar sekolah tersebut tidak akan pernah masuk dalam daftar sasaran. Hal ini semakin memperkuat argumen bahwa, terlepas dari peran AI, kesalahan manusia dalam mengelola dan memanfaatkan informasi intelijen adalah penyebab utama tragedi ini.

Dampak dan Refleksi

Tragedi serangan di sekolah Iran ini menjadi pengingat yang suram akan risiko yang melekat pada penggunaan teknologi canggih dalam operasi militer. Meskipun AI dan sistem otomatis lainnya menawarkan potensi peningkatan efisiensi dan akurasi, mereka tidak dapat sepenuhnya menggantikan penilaian dan akuntabilitas manusia.

Kasus ini juga menimbulkan pertanyaan etis yang mendalam mengenai penggunaan AI dalam perang. Sejauh mana kita bisa membiarkan mesin membuat keputusan yang dapat berakibat pada hilangnya nyawa manusia? Bagaimana kita memastikan bahwa sistem AI yang digunakan memiliki “moral compass” atau setidaknya dirancang untuk memprioritaskan keselamatan sipil?

Penyelidikan yang sedang berlangsung diharapkan dapat memberikan jawaban yang lebih jelas mengenai apa yang sebenarnya terjadi. Namun, pelajaran dari tragedi ini haruslah menjadi momentum untuk meninjau kembali prosedur, meningkatkan akuntabilitas, dan memastikan bahwa kemajuan teknologi tidak mengorbankan nilai-nilai kemanusiaan yang paling mendasar.

Tinggalkan komentar


Related Post