AVRUPADAN Youtube Video
Musk geri adım attı ama kadın ve çocukların ‘soyulduğu’ görseller hâlâ dolaşımda
X’te kullanılan Grok yapay zekâ aracıyla rızasız biçimde üretilen cinsel çağrışımlı görseller yayılmayı sürdürüyor. İngiltere ve AB devrede, platformdan net adım bekleniyor.
X’te kullanılan Grok yapay zekâ aracıyla, kadın ve çocukların rızaları olmadan dijital olarak çıplaklaştırıldığı görsellerin paylaşımı devam ediyor. Bu durum, platformun bu tür içerikleri üreten kullanıcıları askıya alacağı yönündeki açıklamalarına rağmen sürüyor.
İngiltere ve AB devrede
İngiltere’nin iletişim düzenleyicisi Ofcom, dün X ve Grok’u geliştiren şirketle acil temasa geçildiğini duyurdu. Amaç, şirketlerin kullanıcıları korumaya yönelik yasal yükümlülüklerini nasıl yerine getirdiğini görmek. Ofcom, verilecek yanıta göre resmî soruşturma başlatıp başlatmayacağına karar verecek.
Avrupa tarafında ise European Commission, Grok’un çocukları cinsel içerikli biçimde betimleyen görseller üretmekte kullanıldığına dair şikâyetleri ‘çok büyük bir ciddiyetle’ incelediğini açıkladı.
Sorun aralık güncellemesiyle büyüdü
Tepkilerin odağındaki süreç, Grok’a aralık ayında gelen bir güncellemeyle başladı. Bu güncelleme, kullanıcıların fotoğraf yükleyip kıyafetlerin kaldırılmasını talep etmesini kolaylaştırdı. Tam çıplaklığa izin verilmese de, kişilerin son derece az kıyafetli ve cinsel çağrışımlı hâle getirilmesine olanak tanındı.
Yılbaşından sonra da sorun devam etti. Kullanıcılar, 10 yaşına kadar inen çocukların cinsel çağrışımlı görsellerini üretmeyi sürdürdü. Ashley St Clair, Grok’un kendisinin 14 yaşındaki hâlini bikinili bir görsel olarak ürettiğini açıkladı. Benzer biçimde, 14 yaşındaki bir oyuncunun fotoğrafının da dijital olarak değiştirildiği ortaya çıktı.
Araştırma: İçeriğin büyük kısmı hâlâ erişilebilir
Paris merkezli sivil toplum kuruluşu AI Forensics, 25 Aralık–1 Ocak arasında X’teki 50 bin Grok etkileşimini ve 20 bin görseli inceledi. Bulgular özetle şöyle:
• Görsellerin yarıdan fazlası, iç çamaşırı ya da bikini gibi çok az kıyafetli kişilerden oluşuyor.
• İçeriğin büyük bölümü 30 yaş altı kadınları hedef alıyor.
• Yaklaşık yüzde 2’si, 18 yaş altı kişileri içeriyor; bazıları beş yaşın altındaki çocukları gösteriyor.
• İçeriğin önemli bir kısmı hâlâ platformda erişilebilir durumda.
Araştırmacılar ayrıca, Grok’un Nazi ve IŞİD propagandası üretmeye yönelik taleplerde de kullanıldığını belirtti.
Musk geri adım attı ama…
X’in sahibi Elon Musk, ilk günlerde bu akımla alay eden paylaşımlar yaptı. Küresel tepkinin büyümesi üzerine ise, yasadışı içerik üretenlerin bu içerikleri yükleyenlerle aynı yaptırımlara tabi tutulacağını açıkladı. X sözcüsü de çocuklara yönelik cinsel istismar içeriğinin kaldırıldığını ve hesapların kalıcı olarak kapatıldığını savundu.
Buna karşın, Grok adına yayımlanan ve ‘güvenlik açıklarının tespit edildiğini’ söyleyen bir açıklamanın bizzat yapay zekâ tarafından üretildiği ortaya çıktı. Şirketin fiilen hangi önlemleri aldığına dair netlik sağlanmış değil.
Yasa var, uygulama yok
Çocuklara yönelik bu tür görsellerin üretilmesi zaten yasa dışı. Ancak yetişkinlere ait rızasız deepfake görseller konusunda hukuki tablo daha karmaşık. İngiltere’de geçen haziranda bu tür içeriklerin üretilmesini ve talep edilmesini yasaklayan düzenleme kabul edildi. Buna karşın hükümet, söz konusu maddeleri henüz yürürlüğe koymadı.
Bu gecikme sert eleştirilere yol açtı. Yasayı hazırlayan isimlerden Charlotte Owen, “Hükümet ayak sürüyor. Daha fazla gecikmeye tahammül yok” dedi. Muhalefetten Jess Asato ise yaşananları açıkça ‘cinsel saldırı’ olarak niteledi.
Gözler X ve hükûmette
Uzmanlara göre telefonlardaki çıplaklaştırma uygulamalarıyla yıllardır mücadele ediliyordu. Grok’taki son değişiklikler ise bu sorunu ana akım hâle getirdi. Dünyanın en büyük sosyal medya platformlarından birinde bu kadar kolay üretilip paylaşılan içerikler, hem platform sorumluluğu hem de yasal düzenleme tartışmalarını daha da sertleştirdi.
Şimdi hem X’in atacağı somut adımlar hem de İngiltere ve AB’nin izleyeceği yol yakından takip ediliyor.
Geri Dön 06 Ocak 2026 Salı Önceki Yazılar