h Dolar 34,5406 % 0.17
h Euro 35,9943 % 0.17
h Altın (Gr) 3.003,06 %1,40
a İmsak Vakti 06:23
İstanbul 15°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
  • DOLAR 34,5406h

    34,5332

  • EURO 35,9943h

    35,9814

  • Gram Altın 1,40h

    3.003,06

a

Apple, yeni bir suçlamayla karşı karşıya

Apple, yeni bir suçlamayla karşı karşıya
0

BEĞENDİM

Birleşik Krallık’ın Çocuklara Yönelik Zulmü Önleme Ulusal Derneği, Apple’ın, platformlarında çocuklara yönelik cinsel istismar materyallerinin (CSAM) ne sıklıkta göründüğünü eksik hesapladığını söylüyor. The Guardian’ın haberine göre Cupertinolu dev, ürünlerindeki gerçek CSAM tespit sayısını bildirmiyor.

MİLYONLARCASI VAR

Chip’in aktardığına göre teknoloji şirketleri, platformlarındaki olası çocuk cinsel istismarı materyallerini hükümetle paylaşmak zorunda olduğundan dolayı Apple, Nisan 2022 ile Mart 2023 arasında Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’ne CSAM şüphesiyle ilgili 267 rapor sundu. Ancak NSPCC, bu dönemde Apple’ın kayıtlı 337 çocuk istismarı görseli suçuna karıştığını keşfetti. Apple, yalnızca İngiltere ve Galler’de meydana gelen davalardan daha az sayıda rapor bildirdi. Buna karşılık, diğer büyük teknoloji şirketlerinin bildirdikleri sayılar çok daha yüksek. Örneğin Meta, platformunda 1,4 milyonu WhatsApp’ta olmak üzere 30,6 milyondan fazla şüpheli CSAM materyali bildirdi. Google ise 1,47 milyondan fazla materyal bildirdi.

Apple’ın olası CSAM vakalarını neden eksik saydığı belli değil. Ancak 2022’nin sonlarında şirket, yalnızca olası çocuk cinsel istismarı materyallerini aramak yerine kullanıcıları gözetleyeceği yönündeki tepkilerin ardından iCloud fotoğraf tarama aracını kullanıma sunma planlarından vazgeçmişti.

153419956 iphone ekrani

Şirket daha sonra kullanıcıların güvenliğine ve gizliliğine öncelik verdiğini ve bunun yerine çocukları korumak için başka özellikler sunacağını söyledi. Yine de Birleşik Krallık gözlemcisi, WhatsApp’ın iMessage gibi uçtan uca şifrelemeye sahip olmasına rağmen platformun Apple’dan çok daha fazla vaka bildirdiğine dikkat çekiyor.

Los Angeles’ta çocukların korunmasına odaklanan kar amacı gütmeyen bir kuruluş olan Heat Initiative’in CEO’su Sarah Gardner, The Guardian ile yaptığı görüşmede “Apple, ortamlarının çoğunda CSAM’i geniş ölçekte tespit edemiyor. Açıkça eksik bildirimde bulunuyorlar ve bu durumun üstesinden gelebilmek için güven ve güvenlik ekiplerine yatırım yapmadılar” diyor.

Cupertinolu dev henüz bu konuda bir yorum yapmamış olsa da Apple’ın Birleşik Krallık gözlemcisine yanıt vermesi gerekip gerekmeyeceği veya CSAM’e yaklaşımını değiştirmeyi planlayıp planlamadığı şimdilik bilinmiyor.

YORUMLAR

s

En az 10 karakter gerekli

HIZLI YORUM YAP