GETIR Warga Palestina saat Gaza Selatan Jadi Target Pembantaian Baru Israel, RS Dikepung Tank
Inilah siasat Israel melancarkan serangan brutal ke warga Palestina, awalnya disuruh ngungsi ke selatan, kini malah dijadikan target serangan terbaru.
Editor: Dika Pradana
Para pejabat Israel mengatakan pada saat itu bahwa IDF menggunakan sistem rekomendasi AI untuk memilih target untuk pengeboman udara, dan model lain yang kemudian akan digunakan untuk mengatur serangan berikutnya dengan cepat.
IDF menyebut sistem kedua ini sebagai Fire Factory, dan, menurut Bloomberg, sistem ini menggunakan data tentang target yang disetujui militer untuk menghitung muatan amunisi, memprioritaskan dan menugaskan ribuan target ke pesawat terbang dan pesawat tak berawak, dan mengusulkan jadwal.
Israel mengatakan keputusan akhir untuk meluncurkan serangan selalu diambil oleh manusia.
Namun, ketika perang terjadi dalam skala besar, masih mungkinkah manusia melakukan pengamatan secara cermat?
"Bahkan ketika ada manusia yang meninjau keputusan AI, itu hanya membutuhkan waktu beberapa menit dan kami tidak begitu yakin seberapa banyak uji tuntas yang dilakukan orang-orang ini sebelum menyetujui keputusan yang dibuat AI," kata Anwar Mhajne, Asisten Profesor di Stonehill College Boston.
"Ada juga kekhawatiran bahwa ketergantungan pada sistem AI dapat menciptakan rasa percaya diri yang salah di mana Anda seperti, oke, jadi AI membuat keputusan ini dan mengumpulkan data, jadi saya akan segera menyetujuinya dan target tersebut dilegitimasi berdasarkan data yang dikumpulkan oleh AI," lanjutnya.
Scharre mengaku tidak mengetahui rincian sistem spesifik yang mungkin digunakan IDF, tetapi AI dan otomatisasi yang membantu dalam siklus penargetan mungkin akan digunakan dalam skenario seperti perburuan Israel terhadap personel dan material Hamas di Gaza. Penggunaan AI di medan perang berkembang dengan cepat, katanya, tetapi membawa risiko yang signifikan.
"Setiap AI yang terlibat dalam keputusan penargetan, risiko utamanya adalah Anda menyerang target yang salah," kata Scharre, mengutip Los Angeles Times.
"Ini bisa menyebabkan korban sipil atau menyerang target yang bersahabat dan menyebabkan pembunuhan," lanjutnya.

Selain itu, sistem AI apa pun yang berusaha mengotomatiskan dan mempercepat pemilihan target meningkatkan kemungkinan kesalahan yang dibuat dalam prosesnya akan lebih sulit untuk dilihat.
Jika militer merahasiakan cara kerja sistem AI mereka, tidak ada cara untuk menilai jenis kesalahan yang mereka buat.
"Saya pikir militer harus lebih transparan dalam cara mereka menilai atau melakukan pendekatan terhadap AI," ungkap Scharre.
"Salah satu hal yang telah kita lihat dalam beberapa tahun terakhir di Libya atau Ukraina adalah zona abu-abu. Akan ada tuduhan bahwa AI digunakan, tetapi algoritme atau data pelatihannya sulit untuk diungkap, sehingga menilai apa yang dilakukan oleh militer jadi tantangan." lanjutnya.
Bahkan dengan kesalahan yang tertanam dalam kode pembunuhan itu, AI sementara itu dapat memberikan lapisan kredibilitas pada target yang mungkin tidak dapat diterima oleh operator pangkat dan jabatan.
Artikel ini diolah dari Serambinews.com
Sumber: Serambi Indonesia
7 Ucapan Prabowo yang Banjir Tepuk-tangan di Sidang Umum PBB, Tamparan Keras Buat Kesombongan Trump |
![]() |
---|
'Kami Diperlakukan Lebih Rendah dari Anjing!' Pidato Prabowo Getarkan Sidang Umum PBB, Semua Terdiam |
![]() |
---|
Qatar Bersiap Balas Israel, Emir Sheikh Tamim bin Hamad Al Thani Bersumpah Akan Lawan Netanyahu |
![]() |
---|
7 Fakta Baru Penembakan Charlie Kirk, Tyler Robinson Diminta Ayah Serahkan Diri, Pesan di Amunisi |
![]() |
---|
Traveling ke Hong Kong Bingung Makanan Halal & Tempat Shalat? Harusnya Tidak, Ini Bukti Ramah Muslim |
![]() |
---|