Ana Yazılım iOS 15.2'nin fotoğraf tarama çocuk güvenliği özelliği fotoğraflarınızı taramıyor (henüz)
Yazılım

iOS 15.2'nin fotoğraf tarama çocuk güvenliği özelliği fotoğraflarınızı taramıyor (henüz)

Haber Analizi Tartışmalı CSAM fotoğraf taraması, iOS 15.2'nin bir parçası değil, ancak daha sonra gelebilir. personel Yazar, tabletler 10 Kas 2021 2:45 PST iOS 15.2 betası IDG

Ağustos ayında Apple, iPhone kullanıcılarını çocuk avcılarından korumayı ve Çocukların Cinsel İstismarı Malzemesini (CSAM) yaymak ve küçükleri istenmeyen cinsel içerikten korumak için Apple'ın teknoloji ve hizmetlerinin kullanımını azaltmayı amaçlayan bir çift yeni özelliği duyurdu.



Duyurulan iki özellik vardı: iCloud fotoğraflarının CSAM taraması ve Mesajlar'daki cinsel içeriği izlemek için ebeveyn denetimi özelliği. CSAM tarama özelliği, gizlilik savunucularından o kadar çok tartışmaya yol açtı ki, Apple sonunda her şeyi erteledi Kullanıcıların gizliliğini daha iyi korumak için çözümlerini geliştirmeye çalışırken yılın ilerleyen zamanlarına kadar.

mac nasıl 10.13'e güncellenir

En son iOS 15.2 betası ikinci özelliği içerir, ancak Olumsuz tartışmalı birincisi. CSAM fotoğraf tarama özelliği, Fotoğraflar kitaplığınızdaki iCloud'a yüklenen resimlerde cihazda tarama yaparak bilinen bir çocuk cinsel istismarı görüntüleri veritabanıyla eşleşme olup olmadığını kontrol eder. Taramanın sonucu, belirli bir eşik geçilene kadar Apple'dan bile gizli tutulur, bu noktada Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC) ile irtibata geçilecektir.





Apple, yalnızca iCloud sunucusuna geçen güvenli karmalarla cihaz içi eşleştirmenin, rakiplerinin çoğunun bu tür malzemeler için yaptığı bulut içi işlemeden daha özel ve güvenli olduğunu savundu. Ancak gizlilik savunucuları, cihazınızdaki fotoğrafları tarayan herhangi bir sistemin, bu sistemin kötü niyetli aktörler veya devlet görevlileri tarafından kötüye kullanılmasına zemin hazırladığı konusunda uyardı.

Apple mesajları dolandırıcılığı

Apple'ın Konuşma Güvenliği özellikleri, mesajlarda görüntülenmeye duyarlı olabilecek fotoğrafları işaretler.



elma

iOS 15.2 beta 2'deki yeni özellik ise, Mesajlar için daha az tartışmalı Konuşma Güvenliği özelliğidir. O da görüntülerin cihazda taranmasına dayanır, ancak görüntüleri bilinen bir veritabanıyla eşleştirmez ve bir üst hesap etkinleştirmedikçe etkinleştirilmez.

Bir ebeveyn hesabı bunu bir çocuk hesabı için etkinleştirdiğinde, Mesajlar'da gönderilen veya alınan tüm resimler çıplaklık ve cinsel içerik açısından taranır. Böyle bir görüntü alınırsa, bulanıklaştırılacak ve çocuk ne yapması gerektiği konusunda kaynaklar sunan bir açılır pencere ile uyarılacaktır. Çocuk daha sonra fotoğrafı görme veya görmeme yeteneğine sahiptir.

Başlangıçta tasarlandığı gibi, 13 yaşından küçük bir çocuğun ebeveynleri, böyle bir görüntünün görüntülenmesi durumunda otomatik olarak bilgilendirilecektir. Eleştirmenler, bunun bazı çocukları riske atabileceğine dikkat çekti, bu nedenle Apple otomatik bildirimi kaldırdı ve bunun yerine, her yaştaki çocuğa, görüntüyü görüntüleme kararından ayrı olarak, isterlerse güvenilir bir yetişkine mesaj gönderme yeteneği verdi.

24 ayar altın iphone 6 kılıf

Bu özellik, ana hesap tarafından açıkça etkinleştirilmemişse hiçbir görüntüyü taramaz ve Apple'a veya başka herhangi bir üçüncü tarafa hiçbir tür bilgi gönderilmez.

Ancak CSAM taraması yolda. Apple programına bağlı kalırsa, fotoğraf tarama özelliğini yaklaşan bir betada (muhtemelen 15.3) yeniden sunacak ve tartışmalar yeniden başlayacak. Ancak şimdilik, iOS 15.2'deki Konuşma Güvenliği özellikleri, ebeveynleri korkutmamalı ve çocukların daha iyi kararlar almasına yardımcı olabilir; üstelik Apple'ın fotoğraflarını gerçekten taraması olmadan.