AI, bizi derin derinliklerden koruyamıyor, yeni rapor tartışıyor

0
170

Veri ve Toplum’dan yeni bir rapor, derin çözümler adı verilen makine öğrenmesi ile değiştirilen videolar dahil olmak üzere, aldatıcı biçimde değiştirilmiş videolara otomatik çözümler hakkında şüpheler uyandırıyor. Yazarlar Britt Paris ve Joan Donovan, derinlerin tartışırken, yeni iken, hem sosyal hem de teknik bir düzeltme gerektiren uzun bir medya manipülasyon geçmişinin parçası olduklarını savunuyorlar. AI’ya güvenmek, özel şirketlerin elinde daha fazla veri ve gücü toplayarak işleri daha da kötüleştirebilirdi.

Raporu hazırlayan Britt Paris, “Derin yüzeylerin etrafındaki panik, yapısal eşitsizliği ele almayan hızlı teknik çözümleri haklı çıkarır” diyor. “Bu büyük bir proje, ancak siyasi olduğu kadar sosyal olan çözümleri de bulmamız gerekiyor, bu yüzden gücü olmayan insanlar denklemden çıkmıyor.”

“Derin bir yasa olacaksa, serbest konuşmayı hesaba katması gerekir”

Paris ve Donovan’ın gördüğü gibi, derin yüzeyler, yalnızca teknoloji ile sabitlenmesi muhtemel olmayan uzun bir medya manipülasyonu tarihinin en son sırası. Raporda, “Medya ve gerçek arasındaki ilişki hiçbir zaman istikrarlı olmamıştı” diyor. 1850’lerde hakimler mahkemede fotoğraf delillerine izin vermeye başladığında, insanlar yeni teknolojiye güvenmediler ve tanık ifadelerini ve yazılı kayıtları tercih ettiler. 1990’lı yıllara gelindiğinde, medya şirketleri, akşam yayınlarından gelen görüntüleri seçici bir şekilde düzenleyerek olayları yanlış tanıtmakta zorluk çekiyorlardı. Körfez Savaşı’nda, muhabirler ABD ile Irak kuvvetleri arasındaki en ufak tefek ölümleri gösterememekle eşit eşleşmiş muhalifler arasında bir çatışma inşa ettiler. Raporda “Bu görüntüler gerçek görüntülerdi” diyor. “Manipülatif olan şey, kablolu televizyonda 24 saat boyunca bağlamsallaştırılma, yorumlanma ve yayınlanma şekliydi.”

Bugün deepfakes, insanların makine öğrenimini kullanarak video ve görüntüleri manipüle etmelerine izin vererek, insan gözüyle algılaması neredeyse imkansız olan sonuçlarla daha da manipülasyona başladı. Şimdi, raporda “kamuya açık bir sosyal medya profiline sahip olan herkes sahte olmak için adil bir oyundur” diyor. Sahteler var olduğunda, birkaç saniye içinde sosyal medyada viral olabilirler.

Bu sorunla mücadele etmek için, Facebook yakın zamanda insanların derin yüzeyleri tespit etmeyi amaçlayan yeni modelleri test etmelerine izin verecek bir veri seti yayınladığını duyurdu. Değiştirilen fotoğrafları tespit etmek için AI ve blockchain teknolojisini kullanan TruePic gibi başlangıçlar da hız kazanmaya başladı. Daha yakın zamanlarda, ABD Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA), bir şeyin ne zaman doktorlandığını belirlemek için video piksellerdeki farklılıkları inceleyen Medifor’a yatırım yaptı. Ancak bu çözümlerin neredeyse tümü, yakalama noktasındaki (yani bir fotoğraf veya video çekildiğinde) manipülasyonla mücadele etmeyi veya tespit düzeyinde (doktorlu ve belgesiz içerik arasındaki farkı ayırt etmeyi kolaylaştırmak) amaçlamaktadır.

“Deepfakes kaybolmayacak”

Hukuk uzmanları bu yaklaşımı olumlu olarak görüyor, derin suçlu sorunların mahkemelerde çözülemediğini belirtti. Electronic Frontier Foundation Sivil Özgürlükler Müdürü David Greene, sahte videoların aynı zamanda kimliğin korunmasına ihtiyaç duyan insanları politik yorum, parodi ve anonimleştirmede de kullanabileceğini söylüyor.

“Derin derin bir yasa olacaksa, serbest konuşmayı hesaba katması gerekir” diye ekledi, eğer insanlar yasadışı bir şey yapmak için derin derinler kullanırlarsa – şantaj veya birisini zorla gasp ettiklerini – mevcut yasalar altında yargılanabileceklerini belirtti.

Ancak Paris AI kaynaklı içerik filtreleri ve diğer teknik düzeltmelerin gerçek zararlara neden olabileceğinden endişe duyuyor. “Bazıları için işleri daha iyi hale getirirler, ancak diğerleri için işleri daha kötü hale getirebilirler” diyor. “Yeni teknik modeller tasarlamak, şirketlerin her türlü görüntüyü yakalayabilmesi ve çevrimiçi yaşamın bir deposunu yaratabilmesi için açıklıklar yaratıyor.”

“Derin Fakes: Gizlilik, Demokrasi ve Ulusal Güvenlik için Yaklaşan Bir Zorluk” makalesinin ortak yazarı olan Bobby Chesney, veri toplamayı bir sorun olarak görmüyor. “Düzenlenmezse, özel kuruluşların daha fazla bilgiye erişebileceği noktasını görüyorum” dedi. “Ama doğası gereği kötü olduğu fikri beni rahatsız edici buluyor.”

Chesney ve Paris, bir tür teknik düzeltmenin gerekli olduğu konusunda hemfikir ve kötü oyuncuları kovuşturmak ve sahte videoların yayılmasını durdurmak için yasal sistemle birlikte çalışması gerektiği konusunda hemfikirler. Chesney, “Bu sorunu çözmek için azaltma ve zararı sınırlama hakkında konuşmamız gerekiyor” dedi. “Deepfakes kaybolmayacak.”

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz