iOS 18.2 ile bir “CSAM” özelliği de sunulacak
Apple Intelligence destekli iOS 18.1 önümüzdeki hafta içinde çıkıyor. Ardından daha fazla yapay zeka özelliği taşıyan iOS 18.2 gelecek. iOS 18.2 güncellemesiyle birlikte bir “CSAM (Child Sexual Abuse Material)” özelliği de sunulacak. İlk olarak Avustralya’da kullanıma sunulacak özellik, mesajlardaki, FaceTime’daki ya da AirDrop’taki çıplaklık içeren içerikleri (fotoğraf ya da video) tespit ederek bulanıklaştıracak ve bunun için cihaz üzerindeki makine öğrenimi altyapısından yardım alacak. Özellik kapsamında çıplaklık içeren içerikler gösterilmeden önce kullanıcıların karşısına, “Bunu gerçekten açmak istiyor musun?” gibi uyarılar çıkarılacak ve gösterim yapılmadan önce onay verilmesi istenecek. 13 yaşından küçükler, bu içerikleri cihazın ekran süresi parolasını girmeden göremeyecek. Burada özellikle çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltmak isteyen teknoloji devi Apple, çocukların kendilerine gönderilmeye çalışılan çıplaklık içeren içerikleri ebeveynlerine göndermesine ya da profesyonellerden yardım almasına da imkan tanıyacak. Bu özellik zaman içinde diğer ülkelerde de sunulacak. iOS 18.2 güncellemesi ile yazılanlardan özel emojiler üreten Genmoji, yazılanlardan görseller üreten […] iOS 18.2 ile bir “CSAM” özelliği de sunulacak yazısı ilk olarak Teknoloji haberleri - LOG üzerinde yayınlandı.
Apple Intelligence destekli iOS 18.1 önümüzdeki hafta içinde çıkıyor. Ardından daha fazla yapay zeka özelliği taşıyan iOS 18.2 gelecek. iOS 18.2 güncellemesiyle birlikte bir “CSAM (Child Sexual Abuse Material)” özelliği de sunulacak. İlk olarak Avustralya’da kullanıma sunulacak özellik, mesajlardaki, FaceTime’daki ya da AirDrop’taki çıplaklık içeren içerikleri (fotoğraf ya da video) tespit ederek bulanıklaştıracak ve bunun için cihaz üzerindeki makine öğrenimi altyapısından yardım alacak. Özellik kapsamında çıplaklık içeren içerikler gösterilmeden önce kullanıcıların karşısına, “Bunu gerçekten açmak istiyor musun?” gibi uyarılar çıkarılacak ve gösterim yapılmadan önce onay verilmesi istenecek. 13 yaşından küçükler, bu içerikleri cihazın ekran süresi parolasını girmeden göremeyecek. Burada özellikle çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltmak isteyen teknoloji devi Apple, çocukların kendilerine gönderilmeye çalışılan çıplaklık içeren içerikleri ebeveynlerine göndermesine ya da profesyonellerden yardım almasına da imkan tanıyacak. Bu özellik zaman içinde diğer ülkelerde de sunulacak. iOS 18.2 güncellemesi ile yazılanlardan özel emojiler üreten Genmoji, yazılanlardan görseller üreten […]
iOS 18.2 ile bir “CSAM” özelliği de sunulacak yazısı ilk olarak Teknoloji haberleri - LOG üzerinde yayınlandı.
Tepkiniz Nedir?