Berita Apple

Karyawan Apple Secara Internal Menyampaikan Kekhawatiran Atas Rencana Deteksi CSAM

Jumat 13 Agustus 2021 12:43 PDT oleh Sami Fathi

Karyawan Apple sekarang bergabung dengan paduan suara individu yang menyuarakan keprihatinan atas rencana Apple untuk memindai iPhone perpustakaan foto pengguna untuk CSAM atau materi pelecehan seksual anak, dilaporkan berbicara secara internal tentang bagaimana teknologi dapat digunakan untuk memindai foto pengguna untuk jenis konten lain, menurut laporan dari Reuters .





drone taman apel juni 2018 2
Berdasarkan Reuters , sejumlah karyawan Apple yang tidak ditentukan telah dibawa ke saluran internal Slack untuk menyampaikan kekhawatiran atas deteksi CSAM. Secara khusus, karyawan khawatir bahwa pemerintah dapat memaksa Apple menggunakan teknologi untuk penyensoran dengan menemukan konten selain CSAM. Beberapa karyawan khawatir bahwa Apple merusak reputasi privasi terdepan di industrinya.

Karyawan Apple telah membanjiri saluran internal Slack Apple dengan lebih dari 800 pesan tentang rencana yang diumumkan seminggu yang lalu, pekerja yang meminta untuk tidak disebutkan namanya mengatakan kepada Reuters. Banyak yang menyatakan kekhawatiran bahwa fitur tersebut dapat dieksploitasi oleh pemerintah yang represif yang mencari bahan lain untuk penyensoran atau penangkapan, menurut pekerja yang melihat utas selama berhari-hari.



Perubahan keamanan di masa lalu di Apple juga telah memicu kekhawatiran di antara karyawan, tetapi volume dan durasi debat baru mengejutkan, kata para pekerja. Beberapa poster khawatir bahwa Apple merusak reputasi terdepannya untuk melindungi privasi.

Karyawan Apple dalam peran yang berkaitan dengan keamanan pengguna tidak dianggap sebagai bagian dari protes internal, menurut laporan tersebut.

Sejak itu pengumuman minggu lalu , Apple telah dihujani kritik atas rencana deteksi CSAM, yang diperkirakan masih akan diluncurkan dengan iOS 15 dan iPadOS 15 musim gugur ini . Kekhawatiran terutama berkisar pada bagaimana teknologi dapat menghadirkan kemiringan yang licin untuk implementasi masa depan oleh pemerintah dan rezim yang menindas.

cara menggunakan pensil apel

Apple dengan tegas menolak gagasan bahwa teknologi pada perangkat yang digunakan untuk mendeteksi materi CSAM dapat digunakan untuk tujuan lain apa pun. Di sebuah dokumen FAQ yang diterbitkan , perusahaan mengatakan akan dengan keras menolak permintaan seperti itu oleh pemerintah.

Bisakah pemerintah memaksa Apple untuk menambahkan gambar non-CSAM ke daftar hash?
Apple akan menolak tuntutan tersebut. Kemampuan deteksi CSAM Apple dibuat semata-mata untuk mendeteksi gambar CSAM yang diketahui yang disimpan di Foto iCloud yang telah diidentifikasi oleh para ahli di NCMEC dan grup keselamatan anak lainnya. Kami telah menghadapi tuntutan untuk membangun dan menerapkan perubahan yang diamanatkan pemerintah yang menurunkan privasi pengguna sebelumnya, dan dengan tegas menolak tuntutan tersebut. Kami akan terus menolak mereka di masa depan. Mari kita perjelas, teknologi ini terbatas untuk mendeteksi CSAM yang disimpan di iCloud dan kami tidak akan menyetujui permintaan pemerintah mana pun untuk memperluasnya. Selanjutnya, Apple melakukan tinjauan manusia sebelum membuat laporan ke NCMEC. Jika sistem menandai foto yang tidak cocok dengan gambar CSAM yang diketahui, akun tidak akan dinonaktifkan dan tidak ada laporan yang akan diajukan ke NCMEC.

NS surat Terbuka mengkritik Apple dan menyerukan perusahaan untuk segera menghentikan rencananya untuk menyebarkan deteksi CSAM telah memperoleh lebih dari 7.000 tanda tangan pada saat penulisan. Kepala WhatsApp juga memiliki ditimbang ke dalam perdebatan .

Tags: Privasi Apple , Fitur keselamatan anak Apple