Berita Apple

Apple Memperkenalkan Fitur Keamanan Anak Baru, Termasuk Memindai Pustaka Foto Pengguna untuk Materi Pelecehan Seksual yang Diketahui

Kamis 5 Agustus 2021 13:00 PDT oleh Joe Rossignol

apel hari ini pratinjau fitur keselamatan anak baru yang akan datang ke platformnya dengan pembaruan perangkat lunak akhir tahun ini. Perusahaan mengatakan fitur-fitur itu akan tersedia di AS hanya saat diluncurkan dan akan diperluas ke wilayah lain seiring waktu.





fitur keamanan komunikasi iphone

Keamanan Komunikasi

Pertama, aplikasi Pesan di iPhone, iPad, dan Mac akan mendapatkan fitur Keamanan Komunikasi baru untuk memperingatkan anak-anak dan orang tua mereka saat menerima atau mengirim foto seksual vulgar. Apple mengatakan aplikasi Pesan akan menggunakan pembelajaran mesin di perangkat untuk menganalisis lampiran gambar, dan jika sebuah foto dianggap eksplisit secara seksual, foto itu akan secara otomatis diburamkan dan anak itu akan diperingatkan.



apa yang bisa kamu lakukan dengan jam tangan apel?

Saat seorang anak mencoba melihat foto yang ditandai sebagai sensitif di aplikasi Pesan, mereka akan diberi tahu bahwa foto itu mungkin berisi bagian tubuh pribadi, dan foto itu mungkin menyakitkan. Tergantung pada usia anak, juga akan ada opsi bagi orang tua untuk menerima pemberitahuan jika anak mereka terus melihat foto sensitif atau jika mereka memilih untuk mengirim foto seksual eksplisit ke kontak lain setelah diperingatkan.

Apple mengatakan fitur Keamanan Komunikasi baru akan hadir dalam pembaruan untuk iOS 15, iPadOS 15 dan macOS Monterey akhir tahun ini untuk akun yang diatur sebagai keluarga di iCloud. Apple memastikan bahwa percakapan iMessage akan tetap terlindungi dengan enkripsi ujung ke ujung, membuat komunikasi pribadi tidak dapat dibaca oleh Apple.

Memindai Foto untuk Materi Pelecehan Seksual Anak (CSAM)

Kedua, mulai tahun ini dengan iOS 15 dan iPadOS 15, Apple akan dapat mendeteksi gambar Child Sexual Abuse Material (CSAM) yang diketahui tersimpan di Foto iCloud, memungkinkan Apple untuk melaporkan kejadian ini ke National Center for Missing and Exploited Children (NCMEC) , sebuah organisasi nirlaba yang bekerja sama dengan lembaga penegak hukum AS.

Apple mengatakan metodenya untuk mendeteksi CSAM yang diketahui dirancang dengan mempertimbangkan privasi pengguna. Alih-alih memindai gambar di cloud, Apple mengatakan sistem akan melakukan pencocokan di perangkat terhadap database hash gambar CSAM yang diketahui yang disediakan oleh NCMEC dan organisasi keselamatan anak lainnya. Apple mengatakan akan lebih jauh mengubah basis data ini menjadi kumpulan hash yang tidak dapat dibaca yang disimpan dengan aman di perangkat pengguna.

Teknologi hashing, yang disebut NeuralHash, menganalisis gambar dan mengubahnya menjadi nomor unik khusus untuk gambar itu, menurut Apple.

'Tujuan utama hash adalah untuk memastikan bahwa gambar yang identik dan serupa secara visual menghasilkan hash yang sama, sementara gambar yang berbeda satu sama lain menghasilkan hash yang berbeda,' kata Apple dalam buku putih 'Perlindungan yang Diperluas untuk Anak' yang baru. 'Misalnya, gambar yang telah sedikit dipotong, diubah ukurannya atau diubah dari warna menjadi hitam putih diperlakukan sama dengan aslinya, dan memiliki hash yang sama.'

diagram alur csam apel
Sebelum gambar disimpan di Foto iCloud, Apple mengatakan bahwa proses pencocokan pada perangkat dilakukan untuk gambar tersebut terhadap kumpulan hash CSAM yang diketahui yang tidak dapat dibaca. Jika ada kecocokan, perangkat membuat voucher keamanan kriptografi. Voucher ini diunggah ke Foto iCloud bersama dengan gambar, dan setelah ambang batas kecocokan yang dirahasiakan terlampaui, Apple dapat menafsirkan isi voucher untuk kecocokan CSAM. Apple kemudian secara manual meninjau setiap laporan untuk mengonfirmasi bahwa ada kecocokan, menonaktifkan akun iCloud pengguna, dan mengirimkan laporan ke NCMEC. Apple tidak membagikan apa ambang batas tepatnya, tetapi memastikan 'tingkat akurasi yang sangat tinggi' bahwa akun tidak salah ditandai.

Apple mengatakan metodenya untuk mendeteksi CSAM yang diketahui memberikan 'manfaat privasi yang signifikan' dibandingkan teknik yang ada:

• Sistem ini adalah cara yang efektif untuk mengidentifikasi CSAM yang diketahui yang disimpan di akun Foto iCloud sekaligus melindungi privasi pengguna.
• Sebagai bagian dari proses, pengguna juga tidak dapat mempelajari apa pun tentang kumpulan gambar CSAM yang diketahui yang digunakan untuk pencocokan. Ini melindungi isi database dari penggunaan berbahaya.
• Sistemnya sangat akurat, dengan tingkat kesalahan yang sangat rendah, kurang dari satu dalam satu triliun akun per tahun.
• Sistem secara signifikan lebih menjaga privasi daripada pemindaian berbasis cloud, karena hanya melaporkan pengguna yang memiliki koleksi CSAM yang diketahui yang disimpan di Foto iCloud.

Teknologi yang mendasari di balik sistem Apple cukup kompleks dan telah diterbitkan sebagai ringkasan teknis dengan lebih detail.

'Perlindungan Apple yang diperluas untuk anak-anak adalah pengubah permainan. Dengan begitu banyak orang yang menggunakan produk Apple, langkah-langkah keamanan baru ini memiliki potensi menyelamatkan nyawa bagi anak-anak yang dibujuk secara online dan yang gambar-gambar mengerikannya diedarkan dalam materi pelecehan seksual terhadap anak-anak,' kata John Clark, Presiden dan CEO National Center for Missing. & Anak Tereksploitasi. 'Di Pusat Nasional untuk Anak Hilang & Tereksploitasi, kami tahu kejahatan ini hanya dapat diberantas jika kami teguh dalam dedikasi kami untuk melindungi anak-anak. Kami hanya dapat melakukan ini karena mitra teknologi, seperti Apple, meningkatkan dan menunjukkan dedikasi mereka. Kenyataannya adalah bahwa privasi dan perlindungan anak dapat hidup berdampingan. Kami memuji Apple dan berharap dapat bekerja sama untuk membuat dunia ini menjadi tempat yang lebih aman bagi anak-anak.'

Panduan CSAM yang diperluas di Siri dan Pencarian

iphone csam siri
Ketiga, Apple mengatakan akan memperluas panduan dalam Siri dan Pencarian Spotlight di seluruh perangkat dengan menyediakan sumber daya tambahan untuk membantu anak-anak dan orang tua tetap aman saat online dan mendapatkan bantuan dengan situasi yang tidak aman. Misalnya, pengguna yang bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi anak akan diarahkan ke sumber daya untuk tempat dan cara mengajukan laporan.

Pembaruan untuk Siri dan Pencarian akan datang akhir tahun ini dalam pembaruan untuk iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey, menurut Apple.

Catatan: Karena sifat politik atau sosial dari diskusi mengenai topik ini, utas diskusi terletak di . kami Berita Politik forum. Semua anggota forum dan pengunjung situs dipersilakan untuk membaca dan mengikuti utas, tetapi posting dibatasi untuk anggota forum dengan setidaknya 100 posting.

Tags: Privasi Apple , Fitur keselamatan anak Apple