Berita Apple

Craig Federighi Mengakui Kebingungan Tentang Fitur Keamanan Anak Apple dan Menjelaskan Detail Baru Tentang Perlindungan

Jumat 13 Agustus 2021 7:33 PDT oleh Hartley Charlton

Wakil Presiden Senior Rekayasa Perangkat Lunak Apple, Craig Federighi, hari ini membela rencana kontroversial perusahaan itu fitur keselamatan anak dalam sebuah wawancara penting dengan Jurnal Wall Street , mengungkapkan sejumlah detail baru tentang perlindungan yang dibangun ke dalam sistem Apple untuk memindai perpustakaan foto pengguna untuk Materi Pelecehan Seksual Anak (CSAM).





craig wwdc 2021 privasi
Federighi mengakui bahwa Apple telah menanganinya minggu lalu Pengumuman dari dua fitur baru yang buruk, terkait dengan mendeteksi konten eksplisit di Pesan untuk anak-anak dan konten CSAM yang disimpan di Foto iCloud perpustakaan, dan mengakui kebingungan luas di sekitar alat:

Sangat jelas banyak pesan yang tercampur aduk dalam hal bagaimana hal-hal dipahami. Kami berharap ini akan keluar sedikit lebih jelas untuk semua orang karena kami merasa sangat positif dan kuat tentang apa yang kami lakukan.



kapan produk apel baru akan dirilis?

[...]

Kalau dipikir-pikir, memperkenalkan dua fitur ini pada saat yang sama adalah resep untuk kebingungan semacam ini. Dengan merilisnya pada saat yang sama, orang-orang secara teknis menghubungkannya dan menjadi sangat takut: apa yang terjadi dengan pesan saya? Jawabannya adalah... tidak ada yang terjadi dengan pesan Anda.

Fitur Keamanan Komunikasi berarti bahwa jika anak-anak mengirim atau menerima gambar eksplisit melalui iMessage, mereka akan diperingatkan sebelum melihatnya, gambar akan diburamkan, dan akan ada opsi bagi orang tua mereka untuk diperingatkan. Pemindaian CSAM, di sisi lain, mencoba mencocokkan foto pengguna dengan gambar hash dari CSAM yang diketahui sebelum diunggah ke iCloud . Akun yang telah terdeteksi CSAM kemudian akan ditinjau secara manual oleh Apple dan dapat dilaporkan ke National Center for Missing and Exploited Children (NCMEC).

sambungkan airpod max ke apple tv

Fitur-fitur baru telah menjadi sasaran banyak kritik dari pengguna, peneliti keamanan , NS Electronic Frontier Foundation (EFF) dan Edward Snowden , Mantan kepala keamanan Facebook , dan bahkan karyawan Apple .

Di tengah kritik ini, Federighi membahas salah satu bidang utama yang menjadi perhatian, menekankan bahwa sistem Apple akan dilindungi agar tidak dimanfaatkan oleh pemerintah atau pihak ketiga lainnya dengan 'berbagai tingkat kemampuan audit.'


Federighi juga mengungkapkan sejumlah detail baru seputar perlindungan sistem, seperti fakta bahwa pengguna harus memenuhi sekitar 30 kecocokan untuk konten CSAM di akun mereka. Foto perpustakaan sebelum Apple diperingatkan, di mana ia akan mengonfirmasi apakah gambar-gambar itu tampak seperti contoh asli CSAM.

Jika dan hanya jika Anda memenuhi ambang batas sesuatu pada urutan 30 pencocokan gambar pornografi anak yang diketahui, baru kemudian Apple mengetahui apa pun tentang akun Anda dan mengetahui apa pun tentang gambar itu, dan pada saat itu, hanya tahu tentang gambar itu, bukan tentang gambar Anda yang lain. Ini tidak melakukan beberapa analisis untuk apakah Anda memiliki foto anak Anda di bak mandi? Atau, dalam hal ini, apakah Anda memiliki gambar pornografi jenis lain? Ini benar-benar hanya cocok pada sidik jari yang tepat dari gambar-gambar pornografi anak tertentu yang diketahui.

Dia juga menunjukkan keuntungan keamanan menempatkan proses pencocokan pada iPhone langsung, bukan terjadi di server ‌iCloud‌.

Karena ada di [ponsel], peneliti keamanan terus-menerus dapat mengintrospeksi apa yang terjadi di perangkat lunak [ponsel] Apple. Jadi, jika ada perubahan yang dilakukan untuk memperluas cakupan ini dengan cara tertentu — dengan cara yang kami telah berkomitmen untuk tidak melakukannya — ada keterverifikasian, mereka dapat melihat bahwa itu terjadi.

Ketika ditanya apakah database gambar yang digunakan untuk mencocokkan konten CSAM di perangkat pengguna dapat disusupi dengan memasukkan materi lain, seperti konten politik di wilayah tertentu, Federighi menjelaskan bahwa database dibuat dari gambar CSAM yang diketahui dari beberapa organisasi keselamatan anak, dengan setidaknya dua berada 'di yurisdiksi yang berbeda', untuk melindungi dari penyalahgunaan sistem.

iphone 11 tidak ada pengisi daya di dalam kotak

Organisasi perlindungan anak ini, serta auditor independen, akan dapat memverifikasi bahwa database gambar hanya terdiri dari konten dari entitas tersebut, menurut Federighi.

Wawancara Federighi adalah salah satu penolakan PR terbesar dari Apple sejauh ini menyusul tanggapan publik yang beragam terhadap pengumuman fitur keselamatan anak, tetapi perusahaan juga telah berulang kali berusaha untuk mengatasi masalah pengguna , menerbitkan FAQ dan secara langsung menangani masalah dalam wawancara dengan media .

Tags: The Wall Street Journal , Craig Federighi , Fitur keselamatan anak Apple