23 Ağu, 2021

[:tr]Apple’ın Çocuk İstismarını Önleme Kiti Özel Hayatın Gizliliğini İhlal Eder mi ?[:en]Does Apple’s Child Abuse Prevention Kit Violate Privacy?[:]

[:tr]

Apple’ın geçtiğimiz günlerde Çocuk İstismarını Önleme Kiti’ni açıklaması ile beraber teknoloji dünyasında yeni bir tartışma ortaya çıktı.

Whatsapp CEO’su Will Cathcart, Apple’ın yazılım önerisinin özel hayatın gizliliğinin açık bir ihlali olduğunu ve dünyaya endişe verici bir şey sunulduğunu söylerken Whatsapp’ın bu sistemi kabul etmeyeceğini de ekledi.

Fakat bu tartışmanın yanı sıra Dünya Sağlık Örgütü’nün 2020 yılında paylaştığı rapora göre, 2-17 yaşları arasındaki 1 milyara yakın çocuk 2019 yılında fiziksel, cinsel ya da duygusal şiddete maruz bırakıldı. World Vision’ın verilerine göre ise, her yıl dünyada 1 milyar 700 milyon çocuğun istismara uğradığı rapor ediliyor.

Çocuk istismarının görünür şekilde arttığı bu dönemde Apple’ın Çocuk İstismarını Önleme Kiti (CSAM) kullanıcılara neler sunuyor ;

Çocuk Cinsel İstismar Önleme Kiti (CSAM) ile Apple, iletişim araçlarını kullanarak çocukları işe alan ve sömüren kişilerden , bu kit ile çocukların korunmasına yardımcı olmayı ve kişileri güçlendiren ve hayatlarını zenginleştiren aynı zamanda onların güvende olmalarına yardımcı olan bir teknoloji yaratmayı amaçlıyor.

3 alanda geliştirilen çocuk cinsel istismarını önlemeye yönelik kit, ebeveynlere çocukların çevrimiçi hareketlerinde onlara yardımcı olmak ve onları bilinçlendirmek konusunda rol oynayacak.

Mesajlar uygulaması, özel iletişimleri Apple tarafından okunamaz halde tutarken hassas içerik hakkında uyarmak için cihazdaki makine öğrenmesini kullanacak.

Mesajlar uygulaması tarafından çocuğun telefonuna cinsel içerikler geldiğinde fotoğraf bulanıklaştırılacak çocuk uyarılacak, konu ile ilgili yardımcı kaynaklar sunulacak ve bu fotoğrafı görmek istemezse sorun olmayacağına dair güvence verilecek . Ek bir önlem olarak, çocuğa, güvende olduklarından emin olmak için, görürlerse ebeveynlerinin bir mesaj alacağı da söylenebilecek. Bir çocuk cinsel içerikli fotoğraflar göndermeye çalışırsa benzer korumalar olacak. Fotoğraf gönderilmeden önce çocuk uyarılacak ve eğer çocuk fotoğrafı göndermeyi seçerse ebeveynleri bir mesaj alabilecek.

iOS ve iPadOS, kullanıcı gizliliği için tasarım yaparken Çocuk Cinsel İstismarını Önleme Kiti (CSAM), cinsel istismarın çevrimiçi yayılmasını sınırlamaya yardımcı olmak için yeni şifreleme uygulamaları kullanacak. CSAM algılaması, Apple’ın iCloud Fotoğrafları’ndaki Çocuk Cinsel İstismarını Önleme Kiti (CSAM) koleksiyonları hakkında kolluk kuvvetlerine değerli bilgiler sağlamasına yardımcı olacaktır.

Son olarak, Siri ve Arama güncellemeleri, ebeveynlere ve çocuklara genişletilmiş bilgi sağlayacak ve güvenli olmayan durumlarla karşılaştıklarında yardımcı olacak. Siri ve Arama motoru , kullanıcılar CSAM ile ilgili konuları aramaya çalıştığında da müdahale edecek.

“neuralMatch” adlı uygulama sayesinde Apple, iPhone kullanıcılarının cihazlarında çocuk pornosu ve benzeri metaryeller tespit ettiği zaman, bu kişilere ait hesapların silineceği ve doğrudan Ulusal Çocuk İstismarı Merkezi’ne (NCMEC) bildirileceği açıklandı.

Bu uygulama Amerika’da başlayacak.

Sistem fotoğrafların, ABD Kaybolan ve İstismara Uğrayan Çocuklar Ulusal Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından derlenen çocuk cinsel istismarı görsellerini bir veritabanıyla karşılaştırmasını yapacak.

Bu veritabanlarındaki görseller sayısal kodlara çevirilerek saklanıyor ve Apple cihazındaki görselle eşleştirilebiliyor.

Ebeveynlerin herhangi bir kötü amaç gütmeden çocuklarını banyo ve benzeri ortamlarda çektiği yarı çıplak fotoğrafların ise sistem tarafından “hedef dışı” kabul edileceği, bu yönüyle iPhone kullanıcılarının endişelenmesine gerek duymadığı bildirildi.

Bütün bu açıklamalar, bazı uzmanların kişisel bilgilerin mahremiyeti bakımından duyduğu endişeleri gidermiş değil.

ABD’deki Johns Hopkins Üniversitesi’nde güvenlik araştırmaları yapan Matthew Green, “Apple’ın uzun vadeli planları ne olursa olsun, bu sistemi kullanacaklarını açıklamakla çok net bir işaret vermiş oldular: Yasaklı içerikleri izlemek için kullanıcıların telefonlarına sistem yerleştirmek serbest olacak” diyor ve ekliyor:

“Bu konuda haklı çıkıp çıkmamalarının hiçbir önemi yok. Bu bir eşiğin aşılması demek ve hükümetler bunu herkesten talep edecek.”

Apple’ın bu uygulaması kimi kesimler tarafından çocuk istismarını önlemeye yönelik büyük bir adım niteliğinde görülürken kimi kesimlerde de masum insanların zarar görebileceği ve devletlerin daha çok veri isteyebileceğine yönelik düşünceler uyandırmakta.

Kaynakça :
cumhuriyet.com.tr
reuters.com
tr.euronews.com
indyturk.com
apple.com

KVKK, ISO 27001, Bilgi ve İletişim Güvenliği Rehberi, ISO 27701, Bilgi Güvenliği, Siber Güvenlik ve Bilgi Teknolojileri konularında destek ve teklif almak için lütfen

[:en]With the announcement of Apple’s Child Abuse Prevention Kit recently, a new debate has emerged in the technology world.

Whatsapp CEO Will Cathcart said that Apple’s software proposal was a clear violation of privacy and presented something alarming to the world, adding that Whatsapp would not accept this system.

However, in addition to this discussion, according to the report shared by the World Health Organization in 2020, nearly 1 billion children between the ages of 2-17 were exposed to physical, sexual or emotional violence in 2019. According to the data of World Vision, it is reported that 1 billion 700 million children are abused in the world every year.

What does Apple’s Child Abuse Prevention Kit (CSAM) offer to users in this period when child abuse is visibly increasing?

With the Child Sexual Abuse Prevention Kit (CSAM), Apple aims to help protect children from those who recruit and exploit children using communication tools, and create technology that empowers people, enriches their lives, and helps keep them safe.

Developed in 3 areas, the kit for the prevention of child sexual abuse will play a role in helping parents and raising awareness of their children’s online movements.

The Messages app will use on-device machine learning to alert about sensitive content while keeping private communications unreadable by Apple.

When sexual content comes to the child’s phone by the Messages application, the photo will be blurred, the child will be warned, helpful resources will be provided on the subject, and it will be assured that there will be no problem if he does not want to see this photo. As an added precaution, the child can also be told that their parents will receive a message if they see it, to make sure they are safe. There will be similar protections if a child tries to post sexually explicit photos. The child will be warned before the photo is sent, and if the child chooses to send the photo, their parents will receive a message.

While iOS and iPadOS design for user privacy, the Child Sexual Abuse Prevention Kit (CSAM) will use new encryption apps to help limit the online spread of sexual exploitation. CSAM detection will help Apple provide valuable law enforcement information about Child Sexual Abuse Prevention Kit (CSAM) collections in iCloud Photos.

Finally, Siri and Search updates will provide parents and children with expanded information and help when they encounter unsafe situations. Siri and the Search engine will also interfere when users try to search for CSAM-related topics.

Thanks to the application called “neuralMatch”, Apple announced that when iPhone users detect child pornography and similar materials on their devices, their accounts will be deleted and they will be reported directly to the National Child Abuse Center (NCMEC).

This application will start in the USA.

The system will compare the photos to a database of child sexual abuse images compiled by the US National Center for Disappearing and Exploited Children (NCMEC) and other child safety agencies.

The images in these databases are stored by converting them into numerical codes and can be matched with the image on the Apple device.

It was reported that half-naked photos taken by parents without any malicious intent of their children in bathrooms and similar environments will be considered “off-target” by the system, and iPhone users do not need to worry in this respect.

All these explanations do not relieve some experts’ concerns about the privacy of personal information.

“No matter what Apple’s long-term plans are, they have given a very clear signal by announcing that they will use this system: It will be free to put the system on users’ phones to watch prohibited content,” says Matthew Green, a security researcher at Johns Hopkins University in the US. :

“It doesn’t matter if they’re right about it or not. It means crossing a threshold and governments will demand it from everyone.”

While this application of Apple is seen as a big step towards preventing child abuse by some, it also raises thoughts that innocent people may be harmed and states may request more data.

References :
cumhuriyet.com.tr
reuters.com
tr.euronews.com
indyturk.com
apple.com
[:]

İçerik Hakkında:
Sosyal Medyada Paylaş:
Facebook
Twitter
LinkedIn
Telegram