Serangan Mematikan Israel ke Palestina Ternyata Dibantu Teknologi AI

Teknologi.id . November 27, 2023
israel palestina
Foto: Los Angeles Times


Teknologi.id - Pasukan Pertahanan Israel (IDF) dikabarkan menggunakan kecerdasan buatan (AI) dalam operasi militer mereka di Gaza, Palestina. Dalam serangan terbaru, lebih dari 14 ribu orang tewas, dengan lebih dari separuhnya adalah perempuan dan anak-anak. IDF menggunakan teknologi AI, seperti perangkat lunak Fire Factory, untuk menargetkan lokasi atau bangunan yang menjadi sasaran serangan.

Sigma: Cabang Militer Khusus untuk AI

Israel memiliki cabang militer bernama Sigma yang khusus mengembangkan dan menggunakan kecerdasan buatan untuk keperluan serangan. Mereka menyebut konflik dengan Hamas pada tahun 2021 sebagai perang kecerdasan buatan pertama. IDF mengklaim bahwa kecerdasan buatan merupakan elemen kunci dalam menjaga ketangguhan dan kekinianan operasional mereka.

Fire Factory: Perangkat Lunak AI dalam Aksi

Fire Factory, sebuah perangkat lunak berbasis AI, digunakan oleh IDF untuk memilih ribuan target di seluruh Gaza. Setelah dipilih, target-target ini ditugaskan ke berbagai alat militer, termasuk drone, pesawat tempur, tank, dan unit artileri. Proses ini dilakukan secara serentak, memberikan fleksibilitas dan adaptabilitas yang lebih besar dalam pengambilan keputusan.

Tahapan Kecerdasan Buatan oleh IDF

IDF menyebut adanya tiga tahap kecerdasan buatan yang mereka terapkan. Tahap deskriptif memungkinkan komputer memahami konteks dan mengklasifikasikan data. Tahap prediktif memungkinkan komputer memprediksi dampak dari data tersebut, sementara tahap perspektif memungkinkan komputer membuat keputusan cerdas berdasarkan prediksinya. IDF mengklaim telah menguasai tahap pertama dan sedang mengembangkan kecerdasan buatan yang lebih canggih.

Baca juga: MUI Keluarkan Imbauan Bagi Para Pekerja di Perusahaan Pendukung Israel

Ancaman Penggunaan AI dalam Konflik Israel-Palestina

  • Kekhawatiran dan Potensi Penyalahgunaan

Meskipun IDF menyatakan bahwa keputusan akhir untuk meluncurkan serangan selalu diambil oleh manusia, ada kekhawatiran bahwa teknologi AI dapat disalahgunakan. Para ahli khawatir bahwa ketergantungan pada sistem AI dapat menciptakan rasa percaya diri yang salah, dan keputusan yang dibuat oleh algoritma AI mungkin sulit untuk dipahami atau diintervensi oleh manusia.

  • Hilangnya Aspek Kemanusiaan dalam Penggunaan AI

Anwar Mhajne, seorang Asisten Profesor di Stonehill College Boston, menyatakan keprihatinannya bahwa penggunaan AI dapat menghilangkan unsur kemanusiaan dalam pengambilan keputusan perang. Dengan AI, keputusan serangan dapat terasa seperti permainan video, dan tanggung jawab terhadap korban sipil mungkin tereduksi.

  • Risiko Kesalahan dan Keterbatasan AI

Paul Scharre dari Center for a New American Security memperingatkan bahwa sistem AI tidak selalu dapat diandalkan dan dapat rentan ketika dihadapkan pada situasi yang berbeda dengan data pelatihannya. Risiko utama adalah serangan pada target yang salah, yang dapat mengakibatkan korban sipil atau menyerang target yang seharusnya dilindungi.

  • Tantangan Keterbukaan dan Akuntabilitas

Scharre menekankan perlunya transparansi dalam penggunaan AI militer. Dengan militer yang merahasiakan rincian tentang sistem AI yang digunakan, sulit untuk menilai kesalahan yang mungkin terjadi. Terdapat tuntutan untuk lebih banyak keterbukaan agar masyarakat dapat menilai apakah keputusan yang diambil oleh AI adalah etis dan sesuai dengan norma-norma perang internasional.

Kesimpulan

Penggunaan kecerdasan buatan dalam konflik Israel-Palestina menimbulkan berbagai risiko, termasuk potensi penyalahgunaan, kehilangan aspek kemanusiaan, dan risiko kesalahan yang dapat berdampak pada korban sipil. Perlu ada keterbukaan dan pertanggungjawaban yang lebih besar dalam penerapan teknologi ini, agar keputusan yang diambil tetap sesuai dengan norma-norma kemanusiaan dan hukum perang internasional.

Baca Berita dan Artikel yang lain di Google News.

(dwk)

author0
teknologi id bookmark icon

Tinggalkan Komentar

0 Komentar