Breaking News:

GETIR Warga Palestina saat Gaza Selatan Jadi Target Pembantaian Baru Israel, RS Dikepung Tank

Inilah siasat Israel melancarkan serangan brutal ke warga Palestina, awalnya disuruh ngungsi ke selatan, kini malah dijadikan target serangan terbaru.

Editor: Dika Pradana
MENAHEM KAHANA/AFP via Tribunnews
Pasukan Israel menggerakkan tank di dekat kibbutz Nahal Oz di perbatasan dengan Jalur Gaza 

Para pejabat Israel mengatakan pada saat itu bahwa IDF menggunakan sistem rekomendasi AI untuk memilih target untuk pengeboman udara, dan model lain yang kemudian akan digunakan untuk mengatur serangan berikutnya dengan cepat.

IDF menyebut sistem kedua ini sebagai Fire Factory, dan, menurut Bloomberg, sistem ini menggunakan data tentang target yang disetujui militer untuk menghitung muatan amunisi, memprioritaskan dan menugaskan ribuan target ke pesawat terbang dan pesawat tak berawak, dan mengusulkan jadwal.

Israel mengatakan keputusan akhir untuk meluncurkan serangan selalu diambil oleh manusia.

Namun, ketika perang terjadi dalam skala besar, masih mungkinkah manusia melakukan pengamatan secara cermat?

"Bahkan ketika ada manusia yang meninjau keputusan AI, itu hanya membutuhkan waktu beberapa menit dan kami tidak begitu yakin seberapa banyak uji tuntas yang dilakukan orang-orang ini sebelum menyetujui keputusan yang dibuat AI," kata Anwar Mhajne, Asisten Profesor di Stonehill College Boston.

"Ada juga kekhawatiran bahwa ketergantungan pada sistem AI dapat menciptakan rasa percaya diri yang salah di mana Anda seperti, oke, jadi AI membuat keputusan ini dan mengumpulkan data, jadi saya akan segera menyetujuinya dan target tersebut dilegitimasi berdasarkan data yang dikumpulkan oleh AI," lanjutnya.

Scharre mengaku tidak mengetahui rincian sistem spesifik yang mungkin digunakan IDF, tetapi AI dan otomatisasi yang membantu dalam siklus penargetan mungkin akan digunakan dalam skenario seperti perburuan Israel terhadap personel dan material Hamas di Gaza. Penggunaan AI di medan perang berkembang dengan cepat, katanya, tetapi membawa risiko yang signifikan.

"Setiap AI yang terlibat dalam keputusan penargetan, risiko utamanya adalah Anda menyerang target yang salah," kata Scharre, mengutip Los Angeles Times.

"Ini bisa menyebabkan korban sipil atau menyerang target yang bersahabat dan menyebabkan pembunuhan," lanjutnya.

Tentara Israel terlihat selama operasi darat di Jalur Gaza, Rabu, 8 November 2023. Pada Rabu (22/11/2023) Hamas dan tentara Israel dilaporkan mencapai kesepakatan gencatan senjata dengan pertukaran tahanan. (AP Photo/Ohad Zwigenberg)
Tentara Israel terlihat selama operasi darat di Jalur Gaza, Rabu, 8 November 2023. Pada Rabu (22/11/2023) Hamas dan tentara Israel dilaporkan mencapai kesepakatan gencatan senjata dengan pertukaran tahanan. (AP Photo/Ohad Zwigenberg) (AP/Ohad Zwigenberg)

Selain itu, sistem AI apa pun yang berusaha mengotomatiskan dan mempercepat pemilihan target meningkatkan kemungkinan kesalahan yang dibuat dalam prosesnya akan lebih sulit untuk dilihat.

Jika militer merahasiakan cara kerja sistem AI mereka, tidak ada cara untuk menilai jenis kesalahan yang mereka buat.

"Saya pikir militer harus lebih transparan dalam cara mereka menilai atau melakukan pendekatan terhadap AI," ungkap Scharre.

"Salah satu hal yang telah kita lihat dalam beberapa tahun terakhir di Libya atau Ukraina adalah zona abu-abu. Akan ada tuduhan bahwa AI digunakan, tetapi algoritme atau data pelatihannya sulit untuk diungkap, sehingga menilai apa yang dilakukan oleh militer jadi tantangan." lanjutnya.

Bahkan dengan kesalahan yang tertanam dalam kode pembunuhan itu, AI sementara itu dapat memberikan lapisan kredibilitas pada target yang mungkin tidak dapat diterima oleh operator pangkat dan jabatan.

Artikel ini diolah dari Serambinews.com

Tags:
berita viral hari iniPalestinaGazaIsraelIDFBenjamin Netanyahurumah sakit
Rekomendasi untuk Anda
AA

BERITA TERKINI

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved