Berita Apple

Peneliti Keamanan Mengungkapkan Alarm Atas Rencana Apple untuk Memindai Gambar iCloud, Tapi Prakteknya Sudah Meluas

Kamis 5 Agustus 2021 14:04 PDT oleh Juli Clover

apel hari ini diumumkan bahwa dengan diluncurkannya iOS 15 dan iPad 15 , itu akan mulai memindai Foto iCloud di AS untuk mencari Materi Pelecehan Seksual Anak (CSAM) yang diketahui, dengan rencana untuk melaporkan temuan tersebut ke Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC).





Fitur Keamanan Anak
Sebelum Apple merinci rencananya, berita tentang inisiatif CSAM bocor, dan peneliti keamanan telah mulai mengungkapkan kekhawatiran tentang bagaimana protokol pemindaian gambar baru Apple dapat digunakan di masa depan, seperti yang dicatat oleh Waktu keuangan .

Apple menggunakan sistem 'NeuralHash' untuk membandingkan gambar CSAM yang dikenal dengan foto di iPhone sebelum diunggah ke iCloud . Jika ada kecocokan, foto itu diunggah dengan voucher keamanan kriptografi, dan pada ambang tertentu, peninjauan dipicu untuk memeriksa apakah orang tersebut memiliki CSAM di perangkatnya.



matikan mode malam iphone 11

Saat ini, Apple menggunakan pemindaian gambar dan teknologi pencocokan untuk mencari pelecehan anak, tetapi para peneliti khawatir bahwa di masa depan, itu dapat disesuaikan untuk memindai jenis gambar lain yang lebih mengkhawatirkan, seperti tanda-tanda anti-pemerintah di protes.

Dalam serangkaian tweet, peneliti kriptografi Johns Hopkins Matthew Green mengatakan bahwa pemindaian CSAM adalah 'ide yang sangat buruk' karena di masa mendatang, pemindaian dapat diperluas ke pemindaian foto terenkripsi ujung ke ujung, bukan hanya konten yang diunggah ke ‌iCloud‌. Untuk anak-anak, Apple adalah menerapkan fitur pemindaian terpisah yang mencari konten seksual eksplisit secara langsung di iMessages, yang dienkripsi ujung ke ujung.

Green juga menyuarakan keprihatinan atas hash yang Apple rencanakan untuk digunakan karena kemungkinan ada 'tabrakan', di mana seseorang mengirim file tidak berbahaya yang berbagi hash dengan CSAM dan dapat mengakibatkan tanda palsu.

Apple pada bagiannya mengatakan bahwa teknologi pemindaiannya memiliki 'tingkat akurasi yang sangat tinggi' untuk memastikan akun tidak salah ditandai, dan laporan ditinjau secara manual sebelum ‌iCloud‌ akun dinonaktifkan dan laporan dikirim ke NCMEC.

Green percaya bahwa implementasi Apple akan mendorong perusahaan teknologi lain untuk mengadopsi teknik serupa. 'Ini akan menghancurkan bendungan,' tulisnya. 'Pemerintah akan menuntutnya dari semua orang.' Dia membandingkan teknologi dengan 'alat yang digunakan rezim represif.'


Peneliti keamanan Alec Muffett, yang sebelumnya bekerja di Facebook, mengatakan bahwa keputusan Apple untuk menerapkan pemindaian gambar semacam ini adalah 'langkah besar dan regresif untuk privasi individu.' 'Apple berjalan kembali privasi untuk mengaktifkan 1984,' katanya.

Ross Anderson, profesor teknik keamanan di Universitas Cambridge mengatakan menyebutnya sebagai 'ide yang benar-benar mengerikan' yang dapat mengarah pada 'pengawasan massal terdistribusi' pada perangkat.

Seperti yang ditunjukkan banyak orang di Twitter, beberapa perusahaan teknologi sudah melakukan pemindaian gambar untuk CSAM. Google, Twitter, Microsoft, Facebook, dan lainnya menggunakan metode hashing gambar untuk mencari dan melaporkan gambar pelecehan anak yang diketahui.


Perlu juga dicatat bahwa Apple adalah sudah memindai beberapa konten untuk gambar pelecehan anak sebelum peluncuran inisiatif CSAM baru. Pada tahun 2020, kepala privasi Apple Jane Horvath mengatakan bahwa Apple menggunakan teknologi penyaringan untuk mencari gambar ilegal dan kemudian menonaktifkan akun jika bukti CSAM terdeteksi.

cara menggunakan siri di apple watch

apel di tahun 2019 memperbarui kebijakan privasinya untuk dicatat bahwa itu akan memindai konten yang diunggah untuk 'konten yang berpotensi ilegal, termasuk materi eksploitasi seksual anak,' jadi pengumuman hari ini tidak sepenuhnya baru.

Catatan: Karena sifat politik atau sosial dari diskusi mengenai topik ini, utas diskusi terletak di . kami Berita Politik forum. Semua anggota forum dan pengunjung situs dipersilakan untuk membaca dan mengikuti utas, tetapi posting dibatasi untuk anggota forum dengan setidaknya 100 posting.

Tags: Privasi Apple , Fitur keselamatan anak Apple