Berita Apple

Koalisi Global Kelompok Kebijakan Mendesak Apple untuk Meninggalkan 'Rencana Membangun Kemampuan Pengawasan ke iPhone'

Kamis 19 Agustus 2021 2:23 PDT oleh Tim Hardwick

Koalisi internasional lebih dari 90 kelompok kebijakan dan hak menerbitkan surat terbuka pada hari Kamis mendesak Apple untuk membatalkan rencananya untuk 'membangun kemampuan pengawasan ke iPhone, iPad, dan produk lainnya' - referensi ke niat perusahaan untuk pindai perpustakaan foto iCloud pengguna untuk mencari gambar pelecehan seks anak (melalui Reuters ).





Fitur Keselamatan Anak kuning

'Meskipun kemampuan ini dimaksudkan untuk melindungi anak-anak dan untuk mengurangi penyebaran materi pelecehan seksual anak (CSAM), kami khawatir bahwa mereka akan digunakan untuk menyensor pidato yang dilindungi, mengancam privasi dan keamanan orang di seluruh dunia, dan memiliki bencana konsekuensi bagi banyak anak,' tulis kelompok itu dalam surat itu.



Beberapa penandatangan surat tersebut, yang diselenggarakan oleh Center for Democracy & Technology (CDT) nirlaba yang berbasis di AS, khawatir bahwa sistem pemindaian CSAM pada perangkat Apple dapat ditumbangkan di negara-negara dengan sistem hukum yang berbeda untuk mencari konten politik atau konten sensitif lainnya.

'Begitu fitur pintu belakang ini terpasang, pemerintah dapat memaksa Apple untuk memperluas pemberitahuan ke akun lain, dan untuk mendeteksi gambar yang tidak pantas karena alasan selain eksplisit secara seksual,' bunyi surat itu.

Surat itu juga meminta Apple untuk mengabaikan perubahan yang direncanakan pada iMessage di akun keluarga, yang akan mencoba mengidentifikasi dan mengaburkan ketelanjangan dalam pesan anak-anak, membiarkan mereka melihatnya hanya jika orang tua diberi tahu. Para penandatangan mengklaim bahwa langkah tersebut tidak hanya dapat membahayakan anak-anak di rumah yang tidak toleran atau mereka yang mencari materi pendidikan, tetapi juga akan merusak enkripsi ujung-ke-ujung untuk iMessage.

Beberapa penandatangan datang dari negara-negara di mana sudah ada pertempuran hukum sengit atas enkripsi digital dan hak privasi, seperti Brasil, di mana WhatsApp telah berulang kali diblokir karena gagal mendekripsi pesan dalam penyelidikan kriminal. Penandatangan lainnya berbasis di India, Meksiko, Jerman, Argentina, Ghana dan Tanzania. Grup yang juga telah menandatangani termasuk American Civil Liberties Union, Electronic Frontier Foundation, Access Now, Privacy International, dan Tor Project.

Rencana Apple untuk mendeteksi gambar CSAM yang diketahui disimpan di Foto iCloud telah sangat kontroversial dan telah memicu kekhawatiran dari peneliti keamanan, akademisi, kelompok privasi, dan lainnya tentang sistem yang berpotensi disalahgunakan oleh pemerintah sebagai bentuk pengawasan massal. Perusahaan telah mencoba untuk mengatasi masalah dengan menerbitkan dokumen tambahan dan halaman FAQ menjelaskan bagaimana sistem deteksi gambar akan bekerja dan berargumen bahwa risiko deteksi palsu rendah.

Apple juga mengatakan akan menolak tuntutan untuk memperluas sistem deteksi gambar di luar gambar anak-anak yang ditandai oleh database yang diakui dari materi pelecehan seksual anak, meskipun sebagai Reuters menunjukkan, itu tidak mengatakan bahwa itu akan menarik diri dari pasar daripada mematuhi perintah pengadilan.

Tags: Privasi Apple , Fitur keselamatan anak Apple