Militer Amerika Serikat secara resmi mengakui pemanfaatan kecerdasan buatan (AI) dalam operasi militer, termasuk dalam konteks konflik yang melibatkan Iran. Pengakuan ini datang dari Komandan Komando Pusat AS (CENTCOM), Brad Cooper, yang menyatakan bahwa teknologi AI menjadi alat krusial dalam memproses volume data yang sangat besar.
"Para pejuang kami kini memanfaatkan beragam perangkat AI canggih. Sistem ini memungkinkan kami menyaring data dalam hitungan detik, sehingga para pemimpin dapat mengabaikan informasi yang tidak relevan. Hal ini memungkinkan pengambilan keputusan yang lebih cerdas dan cepat, bahkan mengungguli respons musuh," ujar Cooper.
Namun, Cooper menekankan bahwa peran manusia tetap sentral dalam pengambilan keputusan strategis. "Manusia akan selalu menjadi penentu akhir untuk menentukan apa yang harus ditembak dan kapan harus menembak. Namun, alat AI dapat mempercepat proses yang dulunya memakan waktu berjam-jam, bahkan berhari-hari, menjadi hanya dalam hitungan detik," tambahnya, mengutip laporan dari Al Jazeera.
Pengakuan ini muncul di tengah meningkatnya desakan untuk investigasi independen terkait insiden pengeboman sebuah sekolah di Iran selatan yang menelan korban jiwa lebih dari 170 orang, mayoritas adalah anak-anak. Laporan awal mengindikasikan kemungkinan kesalahan identifikasi target oleh AI, yang berujung pada penembakan rudal Tomahawk yang mengenai warga sipil tak berdosa.
Secara keseluruhan, kampanye militer yang melibatkan AS dan Israel dilaporkan telah merenggut nyawa setidaknya 1.300 orang di Iran sejak diluncurkan pada 28 Februari. Meskipun Cooper menegaskan bahwa keputusan penargetan akhir tetap di tangan manusia, kekhawatiran para pakar hak asasi manusia semakin membuncah terkait implikasi penggunaan AI dalam peperangan.
Isu ini semakin relevan mengingat laporan yang mengkonfirmasi ketergantungan Israel yang signifikan pada AI selama operasi militer di Gaza. Konflik tersebut, yang telah menewaskan lebih dari 72.000 warga Palestina sejak Oktober 2023, telah mengubah sebagian besar wilayah tersebut menjadi reruntuhan.
Di sisi lain, pemerintahan Presiden Donald Trump telah menunjukkan upaya berkelanjutan untuk meningkatkan akses terhadap teknologi canggih untuk keperluan militer. Menariknya, di tengah keterlibatan AS dengan Iran, terjadi perselisihan publik antara Washington dan Anthropic, sebuah perusahaan teknologi yang memiliki kontrak dengan Pentagon. Anthropic bersikeras agar model AI yang mereka kembangkan tidak digunakan untuk pengembangan senjata otonom penuh maupun pengawasan massal.
Perselisihan ini bahkan berujung pada gugatan Anthropic terhadap pemerintahan Trump setelah perusahaan tersebut dimasukkan ke dalam daftar hitam oleh Washington, yang melarangnya berbisnis secara langsung maupun tidak langsung dengan lembaga pemerintah AS. "Para pejuang Amerika yang mendukung Operasi Epic Fury dan misi lainnya di seluruh dunia tidak akan pernah disandera oleh para eksekutif teknologi yang tidak dipilih melalui pemilu maupun oleh ideologi Silicon Valley," tegas juru bicara Pentagon, Kingsley Wilson.
Sementara itu, Tiongkok secara tegas memperingatkan bahaya dari penggunaan AI yang berlebihan dalam konteks militer. "Penerapan AI yang tak terbatas oleh militer, yang menggunakan AI sebagai alat untuk melanggar kedaulatan negara lain dan memberikan kekuatan algoritme untuk menentukan hidup dan mati, tidak hanya mengikis batasan etika dan akuntabilitas dalam peperangan, tetapi juga berisiko memicu lepas kendalinya teknologi tersebut," ujar juru bicara Kementerian Pertahanan Tiongkok, Jiang Bin.
AI dalam Perang: Efisiensi vs. Dilema Etis
Pengakuan penggunaan AI oleh militer AS membuka kembali perdebatan global mengenai peran teknologi ini dalam medan perang. Kemampuannya untuk memproses data dalam skala masif dan kecepatan luar biasa memang menawarkan keuntungan strategis yang signifikan.
Brad Cooper, kepala Komando Pusat AS (CENTCOM), menjelaskan bahwa AI berfungsi sebagai akselerator dalam pengambilan keputusan. Ia mampu menganalisis jutaan titik data, memilah informasi yang relevan, dan menyajikannya kepada para pemimpin militer dalam waktu singkat. Ini berarti bahwa komandan dapat membuat keputusan yang lebih terinformasi dan lebih cepat dibandingkan dengan metode manual yang memakan waktu lama.
"Bayangkan situasi di mana informasi sangat dinamis dan cepat berubah. AI memungkinkan kami untuk melihat gambaran yang lebih jelas dalam hitungan detik, bukan jam atau hari. Ini memberikan keunggulan taktis yang krusial," jelas Cooper. Ia menambahkan bahwa proses yang dulunya membutuhkan tim analis berjam-jam, kini bisa diselesaikan oleh AI dalam hitungan menit atau bahkan detik.
Namun, di balik efisiensi yang ditawarkan, tersembunyi kompleksitas etis yang mendalam. Pernyataan Cooper yang menekankan bahwa "Manusia akan selalu membuat keputusan akhir" menjadi krusial. Ini menunjukkan adanya kesadaran akan pentingnya intervensi manusia untuk mencegah kesalahan fatal yang berpotensi timbul dari keputusan algoritmik.
Bayang-bayang Kesalahan: Insiden Sekolah di Iran
Kekhawatiran publik dan para pakar semakin memuncak menyusul laporan mengenai pengeboman sekolah di Iran selatan. Insiden tragis yang menewaskan lebih dari 170 orang, mayoritas anak-anak, memunculkan pertanyaan serius tentang akurasi sistem AI yang digunakan dalam penentuan target.
Ada dugaan bahwa AI salah mengidentifikasi target, yang berakibat pada penggunaan rudal Tomahawk yang mematikan. Meskipun penyelidikan independen masih terus disuarakan, insiden ini menjadi pengingat akan risiko inheren dalam mengandalkan sistem otomatis dalam situasi yang melibatkan nyawa manusia.
Kampanye militer AS-Israel yang dilaporkan telah merenggut 1.300 nyawa di Iran sejak akhir Februari, menjadi konteks yang semakin sensitif terhadap isu ini. Pernyataan Cooper bahwa manusia tetap menjadi pengambil keputusan akhir, meskipun penting, tidak sepenuhnya meredakan kekhawatiran mengenai kemungkinan bias atau kegagalan sistem AI yang dapat memiliki konsekuensi mematikan.
AI dalam Konflik Gaza: Ketergantungan dan Dampak Kemanusiaan
Perang di Gaza menjadi salah satu contoh nyata di mana AI disebut-sebut memiliki peran signifikan. Laporan mengindikasikan bahwa Israel sangat bergantung pada teknologi AI dalam operasi militernya. Dampaknya sangat mengerikan, dengan lebih dari 72.000 warga Palestina tewas sejak Oktober 2023, dan sebagian besar wilayah Gaza berubah menjadi puing-puing.
Ketergantungan pada AI dalam peperangan ini menimbulkan pertanyaan mendasar tentang akuntabilitas ketika terjadi korban sipil yang meluas. Bagaimana memastikan bahwa sistem AI mematuhi hukum humaniter internasional dan tidak menunjukkan bias yang dapat merugikan kelompok tertentu?
Perselisihan Teknologi: Pentagon vs. Anthropic
Sementara militer AS mengintegrasikan AI lebih dalam, ada juga dinamika internal yang menarik. Upaya pemerintahan Donald Trump untuk mendapatkan lebih banyak akses terhadap teknologi canggih berbenturan dengan prinsip etis yang dipegang oleh perusahaan teknologi seperti Anthropic.
Anthropic, yang memiliki kontrak dengan Pentagon, secara tegas menolak penggunaan model AI mereka untuk senjata otonom penuh dan pengawasan massal. Penolakan ini berujung pada perselisihan publik dan tindakan balasan dari Washington yang memasukkan Anthropic ke dalam daftar hitam. Hal ini menunjukkan adanya ketegangan antara dorongan militer untuk inovasi teknologi dan kekhawatiran etis dari sektor swasta.
Juru bicara Pentagon, Kingsley Wilson, menyuarakan sikap tegas pemerintah: "Para pejuang Amerika yang mendukung Operasi Epic Fury dan setiap misi di seluruh dunia tidak akan pernah disandera oleh para eksekutif teknologi yang tidak dipilih melalui pemilu maupun oleh ideologi Silicon Valley." Pernyataan ini menggarisbawahi prioritas Pentagon dalam memastikan kemajuan teknologi militer, terlepas dari potensi keberatan dari perusahaan teknologi.
Peringatan dari Tiongkok: Bahaya Penggunaan AI yang Tak Terkendali
Di sisi lain spektrum global, Tiongkok melontarkan peringatan keras mengenai potensi bahaya penggunaan AI secara berlebihan dalam militer. Juru bicara Kementerian Pertahanan Tiongkok, Jiang Bin, menekankan risiko yang ditimbulkan oleh "penerapan AI yang tak terbatas."
"Memakai AI sebagai alat melanggar kedaulatan negara lain dan memberi algoritme kekuatan menentukan hidup dan mati," kata Jiang Bin. Ia menambahkan bahwa hal ini tidak hanya mengikis batasan etika dan akuntabilitas dalam peperangan, tetapi juga berisiko memicu lepas kendalinya teknologi tersebut. Peringatan ini mencerminkan kekhawatiran internasional yang lebih luas tentang perlombaan senjata AI dan potensi konsekuensinya terhadap stabilitas global.
Masa Depan Peperangan: Kolaborasi Manusia-AI dan Tantangan Akuntabilitas
Penggunaan AI oleh militer AS menandai era baru dalam peperangan. Kombinasi kecerdasan manusia dan kekuatan komputasi AI menawarkan potensi efisiensi yang belum pernah terjadi sebelumnya. Namun, pengakuan ini juga membawa beban tanggung jawab yang besar.
Pertanyaan kunci yang harus dijawab adalah bagaimana memastikan bahwa AI digunakan secara etis, bertanggung jawab, dan sesuai dengan hukum internasional. Bagaimana sistem akuntabilitas dapat ditegakkan ketika keputusan yang mematikan dibuat atau dipengaruhi oleh algoritma?
Insiden sekolah di Iran dan situasi di Gaza menjadi studi kasus yang mendesak untuk dipelajari. Pengembang teknologi, pembuat kebijakan, dan militer perlu bekerja sama untuk menetapkan kerangka kerja yang jelas untuk penggunaan AI dalam konflik, memastikan bahwa kemajuan teknologi tidak mengorbankan nilai-nilai kemanusiaan dan hak asasi manusia.
Diskusi antara Pentagon dan Anthropic juga menyoroti pentingnya dialog antara pemerintah dan industri teknologi. Menemukan keseimbangan antara inovasi militer dan pertimbangan etis adalah tantangan krusial di abad ke-21.
Sementara AI terus berkembang, perdebatan mengenai peran dan batasannya dalam peperangan akan semakin intens. Kesadaran akan potensi keuntungan dan risiko, serta komitmen terhadap akuntabilitas, akan menjadi kunci dalam membentuk masa depan konflik bersenjata di era digital ini.









Tinggalkan komentar