Berita Apple

Apple Menerbitkan FAQ untuk Mengatasi Kekhawatiran Tentang Deteksi CSAM dan Pemindaian Pesan

Senin 9 Agustus 2021 2:50 PDT oleh Tim Hardwick

Apple telah menerbitkan FAQ berjudul 'Perlindungan yang Diperluas untuk Anak-anak' yang bertujuan untuk menghilangkan kekhawatiran privasi pengguna tentang deteksi CSAM baru di Foto iCloud dan keamanan komunikasi untuk fitur Pesan yang dimiliki perusahaan diumumkan minggu lalu .





privasi apel
'Sejak kami mengumumkan fitur ini, banyak pemangku kepentingan termasuk organisasi privasi dan organisasi keselamatan anak telah menyatakan dukungan mereka terhadap solusi baru ini, dan beberapa telah mengajukan pertanyaan,' baca FAQ. 'Dokumen ini berfungsi untuk menjawab pertanyaan-pertanyaan ini dan memberikan lebih banyak kejelasan dan transparansi dalam prosesnya.'

Beberapa diskusi telah mengaburkan perbedaan antara kedua fitur tersebut, dan Apple berusaha keras dalam dokumen untuk membedakannya, menjelaskan bahwa keamanan komunikasi di Pesan 'hanya berfungsi pada gambar yang dikirim atau diterima di aplikasi Pesan untuk akun anak yang disiapkan di Keluarga Berbagi', sedangkan deteksi CSAM di ‌iCloud Photos‌ 'hanya berdampak pada pengguna yang telah memilih untuk menggunakan ‌iCloud Photos‌ untuk menyimpan foto mereka… Tidak ada pengaruh pada data di perangkat lainnya.'



Dari FAQ:

cara memperbarui airpods pro

Kedua fitur ini tidak sama dan tidak menggunakan teknologi yang sama.

Keamanan komunikasi di Pesan dirancang untuk memberi orang tua dan anak-anak alat tambahan untuk membantu melindungi anak-anak mereka dari mengirim dan menerima gambar seksual eksplisit di aplikasi Pesan. Ini hanya berfungsi pada gambar yang dikirim atau diterima di aplikasi Pesan untuk akun anak yang diatur di Keluarga Berbagi. Ini menganalisis gambar di perangkat, sehingga tidak mengubah jaminan privasi Pesan. Saat akun anak mengirim atau menerima gambar seksual eksplisit, foto akan diburamkan dan anak akan diperingatkan, disajikan dengan sumber daya yang bermanfaat, dan diyakinkan bahwa tidak apa-apa jika mereka tidak ingin melihat atau mengirim foto tersebut. Sebagai tindakan pencegahan tambahan, anak kecil juga dapat diberi tahu bahwa, untuk memastikan mereka aman, orang tua mereka akan mendapatkan pesan jika mereka melihatnya.

Fitur kedua, deteksi CSAM di Foto iCloud, dirancang untuk menjauhkan CSAM dari Foto iCloud tanpa memberikan informasi kepada Apple tentang foto apa pun selain yang cocok dengan gambar CSAM yang diketahui. Gambar CSAM ilegal untuk dimiliki di sebagian besar negara, termasuk Amerika Serikat. Fitur ini hanya memengaruhi pengguna yang telah memilih untuk menggunakan Foto iCloud untuk menyimpan foto mereka. Ini tidak memengaruhi pengguna yang belum memilih untuk menggunakan Foto iCloud. Tidak ada dampak pada data di perangkat lainnya. Fitur ini tidak berlaku untuk Pesan.

Sisa dokumen dibagi menjadi tiga bagian (dicetak tebal di bawah), dengan jawaban atas pertanyaan umum berikut:

kapan imac nya keluar

cara menghapus iphone bersih
    Keamanan komunikasi di Pesan
  • Siapa yang dapat menggunakan keamanan komunikasi di Pesan?
  • Apakah ini berarti Message akan membagikan informasi dengan Apple atau penegak hukum?
  • Apakah ini merusak enkripsi ujung ke ujung di Pesan?
  • Apakah fitur ini mencegah anak-anak di rumah yang penuh kekerasan mencari bantuan?
  • Akankah orang tua diberitahu tanpa anak-anak diperingatkan dan diberi pilihan?
  • Deteksi CSAM
  • Apakah ini berarti Apple akan memindai semua foto yang tersimpan di my iPhone ?
  • Apakah ini akan mengunduh gambar CSAM ke ‌iPhone‌ untuk membandingkan dengan foto saya?
  • Mengapa Apple melakukan ini sekarang?
  • Keamanan untuk deteksi CSAM untuk Foto iCloud
  • Dapatkah sistem deteksi CSAM di ‌iCloud Photos‌ digunakan untuk mendeteksi hal-hal selain CSAM?
  • Bisakah pemerintah memaksa Apple untuk menambahkan gambar non-CSAM ke daftar hash?
  • Bisakah gambar non-CSAM 'disuntikkan' ke dalam sistem untuk menandai akun selain CSAM?
  • Akankah deteksi CSAM di ‌iCloud Photos‌ salah menandai orang yang tidak bersalah ke penegak hukum?

Pembaca yang tertarik harus berkonsultasi dengan dokumen untuk tanggapan lengkap Apple atas pertanyaan-pertanyaan ini. Namun, perlu diperhatikan bahwa untuk pertanyaan yang dapat dijawab dengan biner ya/tidak, Apple memulai semuanya dengan 'Tidak' dengan pengecualian tiga pertanyaan berikut dari bagian berjudul 'Keamanan untuk deteksi CSAM untuk ‌ Foto iCloud‌:'

Dapatkah sistem deteksi CSAM di Foto iCloud digunakan untuk mendeteksi hal-hal selain CSAM?
Proses kami dirancang untuk mencegah hal itu terjadi. Deteksi CSAM untuk Foto iCloud dibuat sehingga sistem hanya berfungsi dengan hash gambar CSAM yang disediakan oleh NCMEC dan organisasi keselamatan anak lainnya. Kumpulan hash gambar ini didasarkan pada gambar yang diperoleh dan divalidasi sebagai CSAM oleh organisasi keselamatan anak. Tidak ada pelaporan otomatis ke penegak hukum, dan Apple melakukan tinjauan manusia sebelum membuat laporan ke NCMEC. Akibatnya, sistem hanya dirancang untuk melaporkan foto yang dikenal CSAM di Foto iCloud. Di sebagian besar negara, termasuk Amerika Serikat, hanya memiliki gambar-gambar ini adalah kejahatan dan Apple berkewajiban untuk melaporkan setiap kejadian yang kami ketahui kepada pihak yang berwenang.

Bisakah pemerintah memaksa Apple untuk menambahkan gambar non-CSAM ke daftar hash?
Apple akan menolak tuntutan tersebut. Kemampuan deteksi CSAM Apple dibuat semata-mata untuk mendeteksi gambar CSAM yang diketahui yang disimpan di Foto iCloud yang telah diidentifikasi oleh para ahli di NCMEC dan grup keselamatan anak lainnya. Kami telah menghadapi tuntutan untuk membangun dan menerapkan perubahan yang diamanatkan pemerintah yang menurunkan privasi pengguna sebelumnya, dan dengan tegas menolak tuntutan tersebut. Kami akan terus menolak mereka di masa depan. Mari kita perjelas, teknologi ini terbatas untuk mendeteksi CSAM yang disimpan di iCloud dan kami tidak akan menyetujui permintaan pemerintah mana pun untuk memperluasnya. Selanjutnya, Apple melakukan tinjauan manusia sebelum membuat laporan ke NCMEC. Jika sistem menandai foto yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan yang akan diajukan ke NCMEC.

Bisakah gambar non-CSAM 'disuntikkan' ke dalam sistem untuk menandai akun selain CSAM?
Proses kami dirancang untuk mencegah hal itu terjadi. Kumpulan hash gambar yang digunakan untuk pencocokan berasal dari gambar CSAM yang diketahui dan sudah ada yang telah diperoleh dan divalidasi oleh organisasi keselamatan anak. Apple tidak menambahkan ke kumpulan hash gambar CSAM yang diketahui. Kumpulan hash yang sama disimpan di sistem operasi setiap pengguna iPhone dan iPad, jadi serangan yang ditargetkan hanya terhadap individu tertentu tidak dimungkinkan dalam desain kami. Terakhir, tidak ada pelaporan otomatis ke penegak hukum, dan Apple melakukan tinjauan manusia sebelum membuat laporan ke NCMEC. Jika gambar yang ditandai oleh sistem tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan yang akan diajukan ke NCMEC.

Apple telah menghadapi kritik yang signifikan dari pendukung privasi, peneliti keamanan, pakar kriptografi, akademisi, dan lainnya atas keputusannya untuk menyebarkan teknologi dengan merilis iOS 15 dan iPad 15 , diharapkan pada bulan September.

Hal ini mengakibatkan surat Terbuka mengkritik rencana Apple untuk memindai iPhone untuk CSAM di ‌iCloud Photos‌ dan gambar eksplisit dalam pesan anak-anak, yang telah mendapatkan lebih dari 5.500 tanda tangan pada saat penulisan. Apple juga telah menerima kritik dari WhatsApp milik Facebook, yang pemimpinnya Will Cathcart menyebutnya 'pendekatan yang salah dan kemunduran bagi privasi orang di seluruh dunia.' CEO Epic Games Tim Sweeney juga terserang keputusan tersebut, mengklaim bahwa dia telah 'berusaha keras' untuk melihat pergerakan dari sudut pandang Apple, tetapi telah menyimpulkan bahwa, 'tak terhindarkan, ini adalah spyware pemerintah yang dipasang oleh Apple berdasarkan praduga bersalah.'

'Tidak peduli seberapa baik niatnya, Apple meluncurkan pengawasan massal ke seluruh dunia dengan ini,' dikatakan whistleblower terkemuka Edward Snowden, menambahkan bahwa 'jika mereka dapat memindai pornografi anak hari ini, mereka dapat memindai apa pun besok.' Yayasan Perbatasan Elektronik nirlaba juga dikritik Rencana Apple, menyatakan bahwa 'bahkan pintu belakang yang didokumentasikan secara menyeluruh, dipikirkan dengan cermat, dan dengan cakupan yang sempit masih merupakan pintu belakang.'

cara menemukan emoji di iphone
Tags: Privasi Apple , Fitur keselamatan anak Apple