Sentimen
Positif (100%)
7 Mar 2025 : 00.11
Informasi Tambahan

Institusi: Oxford

Kab/Kota: Tel Aviv

Kasus: penembakan, Teroris

Terungkap, Unit 8200 Israel Sadap Besar-besaran Komunikasi Palestina Buat Bikin AI Mirip ChatGPT - Halaman all

7 Mar 2025 : 00.11 Views 21

Tribunnews.com Tribunnews.com Jenis Media: Internasional

Terungkap, Unit 8200 Israel Sadap Besar-besaran Komunikasi Palestina Buat Bikin AI Mirip ChatGPT - Halaman all

Terungkap, Unit 8200 Israel Sadap Besar-besaran Komunikasi Palestina Buat Bikin AI Mirip ChatGPT

TRIBUNNEWS.COM - Badan pengawasan militer Israel dilaporkan telah menggunakan sejumlah besar hasil sadapan komunikasi entitas Palestina untuk membangun alat kecerdasan buatan yang kuat mirip dengan ChatGPT.

"Artificial Intelligence buatan Israel ini diharapkan akan mengubah kemampuan mata-matanya," tulis laporan investigasi The Guardian.

Laporan itu melansir liputan investigasi gabungan yang dilakukan media Israel-Palestina, +972 Magazine dan outlet berbahasa Ibrani, Local Call.

"Investasi menemukan kalau Unit 8200 (unit intelijen militer Israel) melatih model AI untuk memahami bahasa Arab lisan menggunakan percakapan telepon dan pesan teks dalam jumlah besar. Percakapan dan teks ini diperoleh melalui pengawasan ekstensifnya terhadap wilayah yang diduduki (Palestina)," kata laporan tersebut.

Menurut sumber yang mengetahui proyek tersebut, unit intelijen militer Israel (IDF) tersebut mulai membangun model untuk membuat alat canggih seperti chatbot yang mampu menjawab pertanyaan tentang orang-orang yang dipantaunya dan memberikan wawasan mengenai volume besar data pengawasan yang dikumpulkannya, mirip-mirip apa yang bisa dilakukan ChatGPT.

"Badan penyadapan elite Israel, yang kemampuannya setara dengan Badan Keamanan Nasional AS (NSA), mempercepat pengembangan sistemnya setelah dimulainya perang di Gaza pada Oktober 2023. Model tersebut masih dalam tahap pelatihan (uji coba) pada paruh kedua tahun lalu. Tidak jelas apakah model tersebut sudah digunakan (secara aktif)," kata laporan tersebut.

Sebagai informasi, badan penyadapan elite yang dimaksud adalah Unit 8200, yang dalam bahasa Ibrani dikenal sebagai Shmone Matayim. Unit itu setara dengan National Security Agency (NSA) Amerika Serikat atau GCHQ dalam organisasi militer Kerajaan Inggris.

Upaya untuk membangun model bahasa besar (large language model/LLM) – sistem pembelajaran mendalam yang menghasilkan teks seperti manusia – sedikit banyak diungkapkan oleh seorang mantan teknolog intelijen militer Israel yang mengatakan kalau dia mengawasi proyek tersebut.

Pernyataan dia beberapa waktu lalu luput dari perhatian media-media besar, kata Guardian.

“Kami mencoba membuat kumpulan data terbesar yang memungkinkan [dan] mengumpulkan semua data yang pernah dimiliki negara Israel dalam bahasa Arab,” kata mantan pejabat tersebut, Chaked Roger Joseph Sayedoff, kepada hadirin di sebuah konferensi AI militer di Tel Aviv tahun lalu.

Model tersebut, katanya, membutuhkan “jumlah data yang sangat banyak”.

Tiga mantan pejabat intelijen yang mengetahui inisiatif tersebut mengonfirmasi keberadaan LLM Israel ini dan berbagi rincian tentang konstruksinya.

Beberapa sumber lain menjelaskan bagaimana Unit 8200 menggunakan model pembelajaran mesin berskala lebih kecil pada tahun-tahun sebelum meluncurkan proyek ambisius tersebut – dan dampak yang telah ditimbulkan oleh teknologi tersebut.

“AI memperkuat kekuatan,” kata seorang sumber yang mengetahui pengembangan model AI Unit 8200 dalam beberapa tahun terakhir.

“Ini bukan hanya tentang mencegah serangan penembakan, saya dapat melacak aktivis hak asasi manusia, memantau pembangunan Palestina di Area C [Tepi Barat]. Saya memiliki lebih banyak alat untuk mengetahui apa yang dilakukan setiap orang di Tepi Barat,” kata sumber tersebut soal dampak kehadiran model ini bagi kemampuan mata-mata Israel.

Rincian skala model baru ini menjelaskan penyimpanan besar-besaran Unit 8200 atas isi komunikasi yang disadap, yang dimungkinkan oleh apa yang digambarkan oleh pejabat intelijen Israel dan Barat saat ini dan sebelumnya, sebagai pengawasan menyeluruh terhadap telekomunikasi Palestina.

Proyek ini juga menggambarkan bagaimana Unit 8200, seperti banyak badan mata-mata di seluruh dunia, berupaya memanfaatkan kemajuan AI untuk melakukan tugas-tugas analitis yang kompleks dan memahami sejumlah besar informasi yang mereka kumpulkan secara rutin, yang semakin menentang pemrosesan manusia saja.

Personel satuan intelijen Unit 8200 Israel. (Allisraelnews) Mesin Tebak-tebakan, Rentan Kesalahan

Namun, integrasi sistem seperti LLM dalam analisis intelijen memiliki risiko karena sistem tersebut dapat memperburuk bias dan rentan membuat kesalahan, demikian peringatan para ahli dan pegiat hak asasi manusia.

Sifatnya yang tidak transparan juga dapat mempersulit pemahaman tentang bagaimana kesimpulan yang dihasilkan AI dicapai.

Zach Campbell, seorang peneliti senior pengawasan di Human Rights Watch (HRW), menyatakan kekhawatirannya kalau Unit 8200 akan menggunakan LLM untuk membuat keputusan penting tentang kehidupan warga Palestina di bawah pendudukan militer.

"Itu mesin tebak-tebakan," katanya.

"Dan pada akhirnya tebakan-tebakan ini dapat digunakan untuk memberatkan orang."

Seorang juru bicara Pasukan Pertahanan Israel (IDF) menolak menjawab pertanyaan Guardian tentang LLM baru tersebut, tetapi mengatakan kalau IDF “menggunakan berbagai metode intelijen untuk mengidentifikasi dan menggagalkan aktivitas teroris oleh organisasi-organisasi musuh di Timur Tengah”.

Kumpulan Besar Komunikasi Berbahasa Arab

Unit 8200 telah mengembangkan serangkaian alat yang didukung AI dalam beberapa tahun terakhir.

Sistem seperti The Gospel dan Lavender termasuk di antara sistem yang dengan cepat diintegrasikan ke dalam operasi tempur dalam perang di Gaza, memainkan peran penting dalam pemboman IDF di wilayah tersebut dengan membantu mengidentifikasi target potensial (baik orang maupun bangunan) untuk serangan mematikan.

Selama hampir satu dekade, unit 8200 juga telah menggunakan AI untuk menganalisis komunikasi yang disadap dan disimpannya, menggunakan serangkaian model pembelajaran mesin untuk memilah informasi ke dalam kategori yang telah ditentukan sebelumnya, belajar mengenali pola, dan membuat prediksi.

Setelah OpenAI merilis ChatGPT pada akhir tahun 2022, para ahli AI di Unit 8200 memproyeksikan membangun alat yang lebih luas yang mirip dengan chatbot.

Sekarang menjadi salah satu LLM yang paling banyak digunakan di dunia, ChatGPT didukung oleh apa yang disebut "model dasar", AI serbaguna yang dilatih pada volume data yang sangat besar dan mampu menanggapi pertanyaan yang rumit.

Awalnya, Unit 8200 kesulitan membangun model pada skala ini.

"Kami tidak tahu bagaimana cara melatih model dasar," kata Sayedoff, mantan pejabat intelijen, dalam presentasinya.

Pada satu tahap, unit tersebut mengirim permintaan yang gagal kepada OpenAI untuk menjalankan ChatGPT pada sistem keamanan militer mereka (Guardian mengklaim OpenAI menolak berkomentar).

Namun, ketika IDF memobilisasi ratusan ribu pasukan cadangan sebagai respons terhadap serangan yang dipimpin Hamas pada 7 Oktober, sekelompok perwira dengan keahlian dalam membangun LLM kembali ke unit 8200 dari sektor swasta.

Beberapa berasal dari perusahaan teknologi besar AS, seperti Google, Meta, dan Microsoft.

(Guardian memberikan disclaimer kalau Google mengatakan pekerjaan yang dilakukan karyawannya sebagai pasukan cadangan "tidak terkait" dengan perusahaan tersebut. Meta dan Microsoft menolak berkomentar.)

Tim ahli kecil tersebut segera mulai membangun LLM yang memahami bahasa Arab, kata beberapa sumber, tetapi pada dasarnya harus memulai dari awal setelah menemukan bahwa model bahasa Arab komersial dan sumber terbuka yang ada dilatih menggunakan bahasa Arab tertulis standar – yang digunakan dalam komunikasi formal, literatur, dan media – alih-alih bahasa Arab lisan.

"Tidak ada transkrip panggilan atau percakapan WhatsApp di internet. Jumlahnya tidak cukup untuk melatih model seperti itu," kata salah satu sumber.

Tantangannya, imbuh mereka, adalah "mengumpulkan semua teks [bahasa Arab] yang pernah dimiliki unit tersebut dan menaruhnya di tempat terpusat".

Mereka mengatakan data pelatihan model tersebut akhirnya terdiri dari sekitar 100 miliar kata.

Seorang sumber terpercaya yang memahami proyek tersebut mengatakan kepada Guardian bahwa kumpulan komunikasi yang luas ini mencakup percakapan dalam dialek Lebanon dan Palestina.

Sayedoff mengatakan dalam presentasinya bahwa tim yang membangun LLM "hanya berfokus pada dialek yang membenci kita".

Unit tersebut juga berupaya melatih model untuk memahami terminologi militer tertentu dari kelompok militan, kata sumber.

Namun, pengumpulan data pelatihan yang sangat besar tampaknya mencakup sejumlah besar komunikasi dengan sedikit atau tidak ada nilai intelijen tentang kehidupan sehari-hari warga Palestina.

"Seseorang memanggil seseorang dan menyuruh mereka keluar karena mereka menunggu di luar sekolah, itu hanya sekadar percakapan, itu tidak menarik. Namun untuk model seperti ini, itu sangat berharga," kata salah satu sumber.

Tentara Israel anggota Unit 8200 yang berspesialisasi di bidang intelijeb dan siber saat bekerja. (photo credit: IDF SPOKESPERSON'S UNIT) Kontrol dan Pengawasan Wilayah Pendudukan  yang Difasilitasi AI

Unit 8200 bukanlah satu-satunya badan mata-mata yang bereksperimen dengan teknologi AI generatif.

Di Amerika Serikat (AS), CIA telah meluncurkan alat seperti ChatGPT untuk menyaring informasi sumber terbuka.

Badan mata-mata Inggris juga tengah mengembangkan LLM mereka sendiri, yang juga disebut-sebut tengah dilatih dengan kumpulan data sumber terbuka.

Tetapi beberapa mantan pejabat keamanan AS dan Inggris mengatakan komunitas intelijen Israel tampaknya mengambil risiko lebih besar daripada sekutu terdekatnya ketika mengintegrasikan sistem berbasis AI baru ke dalam analisis intelijen.

Seorang mantan kepala mata-mata barat mengatakan pengumpulan besar-besaran konten komunikasi Palestina oleh intelijen militer Israel memungkinkannya menggunakan AI dengan cara "yang tidak dapat diterima" justru oleh badan intelijen di negara-negara dengan pengawasan yang lebih kuat atas penggunaan kekuatan pengawasan dan penanganan data pribadi yang sensitif.

Campbell, dari Human Rights Watch, mengatakan penggunaan materi pengawasan untuk melatih model AI adalah "invasif dan tidak sesuai dengan hak asasi manusia".

"Sebagai kekuatan pendudukan, Israel berkewajiban untuk melindungi hak privasi warga Palestina," katanya.

"Kita berbicara tentang data yang sangat pribadi yang diambil dari orang-orang yang tidak dicurigai melakukan kejahatan, yang digunakan untuk melatih alat yang kemudian dapat membantu membangun kecurigaan," tambahnya.

Nadim Nashif, direktur 7amleh, sebuah kelompok advokasi dan hak digital Palestina, mengatakan bahwa warga Palestina telah “menjadi subjek di laboratorium Israel untuk mengembangkan teknik-teknik ini dan menjadikan AI sebagai senjata, semuanya demi tujuan mempertahankan rezim apartheid dan pendudukan, di mana teknologi-teknologi ini digunakan untuk mendominasi suatu bangsa, untuk mengendalikan kehidupan mereka”.

Beberapa perwira intelijen Israel saat ini dan sebelumnya yang memahami model pembelajaran mesin skala kecil yang digunakan oleh Unit 8200 – cikal bakal model dasar – mengatakan AI membuat pengawasan menyeluruh terhadap warga Palestina lebih efektif sebagai bentuk kontrol, khususnya di Tepi Barat, tempat mereka mengatakan AI berkontribusi terhadap peningkatan jumlah penangkapan.

Dua sumber mengatakan model tersebut membantu IDF menganalisis percakapan telepon yang disadap secara otomatis dengan mengidentifikasi warga Palestina yang mengekspresikan kemarahan terhadap pendudukan atau keinginan untuk menyerang tentara atau orang-orang yang tinggal di pemukiman ilegal.

Salah satu sumber mengatakan bahwa ketika IDF memasuki desa-desa di Tepi Barat, AI akan digunakan untuk mengidentifikasi orang-orang menggunakan kata-kata yang dianggap menunjukkan "pembuat onar".

"Hal ini memungkinkan kami untuk bertindak berdasarkan informasi dari lebih banyak orang, dan ini memungkinkan kontrol atas populasi," kata sumber ketiga. "Ketika Anda memiliki begitu banyak informasi, Anda dapat menggunakannya untuk tujuan apa pun yang Anda inginkan. Dan IDF memiliki sangat sedikit batasan dalam hal ini."

Kesalahan Adalah Keniscayaan

Bagi badan mata-mata, nilai dalam pengembangan dasar adalah model tersebut dapat mengambil "semua yang pernah dikumpulkan" dan mendeteksi "hubungan dan pola yang sulit dilakukan manusia sendiri", kata Ori Goshen, salah satu pendiri AI21 Labs.

Beberapa karyawan perusahaan Israel tersebut mengerjakan proyek LLM baru tersebut saat bertugas sebagai cadangan.

Namun Goshen, yang sebelumnya bertugas di Unit 8200, menambahkan: “Ini adalah model probabilistik – Anda memberi mereka perintah atau pertanyaan, dan mereka menghasilkan sesuatu yang tampak seperti sihir. Namun, sering kali, jawabannya tidak masuk akal. Kami menyebutnya 'halusinasi.'”

Brianna Rosen, mantan pejabat keamanan nasional Gedung Putih dan sekarang menjadi peneliti senior di Universitas Oxford, mencatat, meskipun alat seperti ChatGPT dapat membantu analis intelijen, "mendeteksi ancaman yang mungkin terlewatkan oleh manusia, bahkan sebelum ancaman itu muncul, alat itu juga berisiko menarik hubungan yang salah dan kesimpulan yang salah".

Ia mengatakan sangat penting bagi badan intelijen yang menggunakan alat-alat ini untuk dapat memahami alasan di balik jawaban yang mereka hasilkan.

"Kesalahan akan terjadi, dan beberapa kesalahan tersebut dapat menimbulkan konsekuensi yang sangat serius," tambahnya.

Pada bulan Februari, Associated Press melaporkan kalau AI kemungkinan digunakan oleh petugas intelijen untuk membantu memilih target dalam serangan udara Israel di Gaza pada bulan November 2023 yang menewaskan empat orang, termasuk tiga gadis remaja.

Sebuah pesan yang dilihat oleh kantor berita tersebut menunjukkan kalau serangan udara tersebut dilakukan secara tidak sengaja.

IDF tidak menanggapi pertanyaan Guardian tentang bagaimana Unit 8200 memastikan model pembelajaran mesinnya, termasuk LLM baru yang sedang dikembangkan, tidak memperburuk ketidakakuratan dan bias.

IDF juga tidak mengatakan bagaimana ia melindungi hak privasi warga Palestina saat melatih model dengan data pribadi yang sensitif.

"Karena sifat informasi yang sensitif, kami tidak dapat menguraikan alat-alat tertentu, termasuk metode yang digunakan untuk memproses informasi," kata seorang juru bicara.

"Namun, IDF menerapkan proses yang cermat dalam setiap penggunaan kemampuan teknologi," imbuh mereka.

"Itu termasuk keterlibatan integral personel profesional dalam proses intelijen untuk memaksimalkan informasi dan presisi hingga tingkat tertinggi."

(oln/thgrdn/*)

Sentimen: positif (100%)