2023 yılında, Hong Kong'da bir şirket, bir deepfake olayı nedeniyle 200 milyon Hong Kong doları (40 milyon Avustralya doları) kaybetti. Çalışan, dolandırıcılarla yapılan ve en üst düzey şirket yetkilileri gibi görünen bir video görüşmesi sonrasında fonları aktardı.
Önemli noktaları göster
Üretici yapay zeka araçları, gerçek insanların görüntüleri, videoları ve seslerinin birebir kopyalarını oluşturabilir, böylece onları hiç yapmadıkları şeyleri yapıyor veya söylüyor gibi gösterebilir. Bu araçlara erişim ve kullanımı giderek daha kolay hale geliyor.
Bu durum, mahrem görüntülerin kötüye kullanılmasını (intikam pornosu gibi şeyler dahil) sürdürebilir ve demokratik süreçleri bozabilir. Şu anda, birçok yargı bölgesi, yapay zeka destekli deepfake'leri nasıl düzenlemesi gerektiğiyle boğuşuyor.
Ancak bir deepfake dolandırıcılığının kurbanı olursanız, kayıplarınız için tazmin edilebilir misiniz? Yasalar henüz bu konuyu yakalayabilmiş değil.
Çoğu deepfake vakasında dolandırıcılar, bankaları ve güvenlik sistemlerini kandırmaya çalışmaktan kaçınır, bunun yerine mağdurların bankalarına dolandırıcıya ödeme yapmalarını söyledikleri "anında öde" dolandırıcılıklarını tercih eder.
Dolayısıyla bir çözüm arıyorsanız, en az dört potansiyel hedef vardır:
Dolandırıcı (genelde kaybolur)
Sahte içeriği barındıran sosyal medya platformu
Dolandırıcılık mağdurunun talimatlarına dayanarak parayı aktaran banka
Sahte dosyayı oluşturan yapay zeka araç sağlayıcısı.
Kısa cevap, dolandırıcı ortadan kaybolduğunda, diğer bu taraflardan herhangi birinden tazminat hakkınızın olup olmadığı şu anda belirsiz (bu durum gelecekte değişebilir).
Nedenini inceleyelim.
Prensip olarak, dolandırıcılıkla ilgili bir deepfake barındıran bir sosyal medya platformundan zarar talep edebilirsiniz. Ancak, aşılması gereken engeller vardır.
Platformlar genellikle kendilerini sadece içerik kanalları olarak tanıtır, bu da onları içeriğin yasal olarak sorumlu yapmaz. Amerika Birleşik Devletleri'nde, platformlar bu tür sorumluluktan açıkça korunur. Ancak, Avustralya dahil, diğer çoğu common law ülkesinde böyle bir koruma yoktur.
Avustralya Rekabet ve Tüketici Komisyonu (ACCC), Meta'ya (Facebook'un ana şirketi) karşı bir dava açtı. Dijital platformların, mağdurları hedef alan reklamlarla kripto dolandırıcılığı deepfakeleri için doğrudan sorumlu tutulmasının mümkünlüğünü test ediyorlar.
ACCC, Meta'nın problem bildirildiğinde yanıltıcı reklamları hemen kaldırmamaktan ötürü dolandırıcılığın aksesuarı olarak sorumlu tutulması gerektiğini de savunuyor.
En azından, dolandırıcılık amaçlı kullanılan deepfake içeriği hızla kaldırmaktan sorumlu olmalıdırlar. Belki de bunu zaten yaptıklarını iddia edebilirler, ancak yakında bu bir yasal zorunluluk haline gelebilir.
Avustralya'da, bir deepfake olayında bankanın sizi tazmin edip etmeyeceği konusundaki yasal yükümlülükler henüz belirlenmiş değil.
Birleşik Krallık Yüksek Mahkemesi yakın zamanda bu konuyu ele aldı ve Avustralya'yı etkileyebilecek bir davada, bankaların dolandırıcılığı (deepfake) şüphelenilse bile müşteri ödeme talimatlarını reddetme yükümlülüğü olmadığını öne sürdü, fakat dolandırıcılığın fark edildiğinde derhal harekete geçme genel bir görevi olduğunu ifade etti.
Ancak, Birleşik Krallık, bankaların en azından belirli durumlarda ödeme dolandırıcılığı mağdurlarını tazmin etmesini şart koşan zorunlu bir plan sunuyor.
Avustralya'da, ACCC ve diğerleri benzer bir plan önermiştir, ancak şu anda uygulamada değildir.
Üretici yapay zeka araçlarının sağlayıcıları, şu anda araçlarını dolandırıcılık veya aldatma amaçlı çalışmaz hale getirmenin yasal olarak zorunlu olmadığı yasalarla karşılaşmıyorlar. Yasalar genel olarak başka birinin dolandırıcılığını engellemek için dünyaya karşı genel bir özen yükümlülüğü getirmez.
Ancak, üretici yapay zeka sağlayıcılarının deepfake olasılığını azaltmak için teknolojiyi kullanma fırsatları vardır. Bankalar ve sosyal medya platformları gibi, en azından bazı yargı bölgelerinde bunu yapmakla yükümlü olabilirler.
Yeni önerilen AB yapay zeka yasası, üretici yapay zeka araçlarının sağlayıcılarının yapay/sahte içeriklerin tespit edilmesini mümkün kılacak şekilde bu araçları tasarlamalarını gerektiriyor.
Şu anda, bunun dijital filigranlar yoluyla gerçekleştirilebileceği öne sürülüyor, ancak etkililiği halen tartışma konusu. Diğer tedbirler arasında hızlı eşikler, kimlik doğrulama için dijital kimlikler ve deepfakeleri tespit etme konusunda devam eden eğitimler bulunmaktadır.
Bu yasal veya teknik engellerin hiçbiri, dolandırıcılık, sahtekarlık veya deepfake dalgasını tamamen durdurmada muhtemelen etkili olmayacaktır, özellikle üretici yapay zeka teknolojisi geliştikçe.
Ancak, yanıtın mükemmel olması gerekmiyor: yapay zeka kaynaklı dolandırıcılıkları yavaşlatmak yine de zararları azaltabilir. Ayrıca platformların, bankaların ve teknoloji sağlayıcılarının risklere karşı duyarlı kalmaları için baskı yapmamız gerekiyor.
Yani, bir deepfake mağduru olmaktan kendinizi tam olarak koruyamasanız da, tüm bu yeni yasal ve teknik gelişmelerle, işler ters gittiğinde tazminat talebinde bulunabilmeniz mümkün olabilir.