Deepfakes Gelişirken Ülkeler Cevap Vermekte Zorlanıyor

Bakec

Member
İnsanların dijital sahtekarlıklar oluşturmak için yüzleri, sesleri ve diğer özellikleri değiştirmelerine izin veren yazılım olan Deepfake teknolojisi, son yıllarda 100.000’den fazla kadını dijital olarak “soymak” için bir kripto para birimi dolandırıcılığı yapan Elon Musk’ın sentetik bir ikamesini yapmak için kullanıldı. Telegram ve telefonda yöneticilerinin sesini taklit ederek şirketlerden milyonlarca dolar çalmak.

Dünyanın çoğu yerinde yetkililer bu konuda fazla bir şey yapamıyor. Yazılım daha sofistike ve erişilebilir hale gelse bile, yayılmasını yönetmek için çok az yasa mevcuttur.

Çin istisna olmayı umuyor. Bu ay, ülke, manipüle edilmiş materyallerin öznenin rızasını almasını ve dijital imzalar veya filigranlar taşımasını ve deepfake hizmet sağlayıcılarının “söylentileri çürütmek” için yollar sunmasını gerektiren kapsamlı kurallar kabul etti.

Ancak Çin, derin sahtekarlıkları yönetmeye yönelik diğer çabaları engelleyen aynı engellerle karşı karşıya: Teknolojinin en kötü suiistimalcileri, yakalanması en zor olanlar, anonim olarak çalışıyorlar, hızla adapte oluyorlar ve sentetik yaratımlarını sınırsız çevrimiçi platformlar aracılığıyla paylaşıyorlar. Çin’in hamlesi, çok az ülkenin kuralları benimsemesinin bir başka nedenini de vurguladı: Pek çok kişi, hükümetin kuralları ifade özgürlüğünü kısıtlamak için kullanabileceğinden endişe ediyor.


Ancak teknoloji uzmanları, Pekin’in sadece talimatlarını yerine getirerek diğer hükümetlerin derin sahte teknolojiye güç veren makine öğrenimi ve yapay zeka ile nasıl başa çıktıklarını etkileyebileceğini söyledi. Alanında sınırlı emsal ile, dünyanın dört bir yanındaki kanun koyucular taklit etmek veya reddetmek için test vakaları arıyorlar.

Pittsburgh Üniversitesi’nde İşbirliğine Dayalı Yapay Zeka Sorumluluğu Laboratuvarı’nı yürüten doktora sonrası araştırmacı Ravit Dotan, “Yapay zeka sahnesi küresel siyaset için ilginç bir yer, çünkü ülkeler gidişatı kimin belirleyeceği konusunda birbirleriyle rekabet ediyor” dedi. “Yasaların geleceğini biliyoruz, ancak henüz ne olduklarını bilmiyoruz, bu nedenle çok fazla öngörülemezlik var.”

Deepfake’ler birçok sektörde büyük umut vaat ediyor. Geçen yıl, Hollanda polisi, 13 yaşındaki cinayet kurbanının dijital bir avatarını oluşturarak ve günümüzde ailesinden ve arkadaşlarından oluşan bir grup arasında yürürken çekilmiş görüntülerini yayınlayarak 2003’teki soğuk bir davayı yeniden canlandırdı. Teknoloji aynı zamanda parodi ve hiciv için, sanal soyunma odalarında kıyafet deneyen çevrimiçi alışveriş yapanlar için, dinamik müze dioramaları için ve uluslararası film gösterimlerinde birden fazla dil konuşmayı uman oyuncular için de kullanılıyor. MIT Medya Laboratuvarı ve UNICEF’teki araştırmacılar, Kuzey Amerika ve Avrupa şehirlerinin görüntülerini Suriye savaşının neden olduğu savaş yarası manzaralarına dönüştürerek empatiyi incelemek için benzer teknikler kullandılar.

Halep, Suriye’de apartman molozu, 2014. Kredi… Salih Mahmud Leyla/Anadolu Ajansı, Getty Images aracılığıyla
2009’da Boston’ın Back Bay mahallesi. Kredi… Greg Lyons/Flickr

MIT Media Lab’deki araştırmacılar, bir yapay zeka sistemini Halep’in görüntüleriyle eğitti ve ondan benzer yıkımdan sonra diğer şehirlerin nasıl görüneceğini göstermesini istedi. Boston sahnesini bu derin sahtekarlığa dönüştürdü. Kredi… Pınar Yanardağ/MIT Media Lab

Ancak sorunlu uygulamalar da çoktur. Meşru uzmanları, deepfake’lerin güvenlik videolarına, vücut kameralarına ve diğer kanıtlara olan güveni aşındırmak için kötüye kullanılabileceğinden endişe ediyor. (2019’da İngiltere’deki bir çocuk velayeti davasında sunulan üzerinde oynanmış bir kayıt, ebeveynin avukatına göre bir ebeveynin şiddetli tehditler savurduğunu gösteriyordu.) Dijital sahtecilikler, polis memurlarının itibarını sarsabilir veya onlara karşı şiddeti teşvik edebilir ya da onları çılgın kovalamacalara gönderebilir. İç Güvenlik Bakanlığı ayrıca siber zorbalık, şantaj, stok manipülasyonu ve siyasi istikrarsızlık gibi riskleri de belirledi.


Bazı uzmanlar, çevrimiçi içeriğin yüzde 90 kadarının birkaç yıl içinde sentetik olarak üretilebileceğini tahmin ediyor.


Yanlış Bilgilerin ve Yanlışların Yayılması

  • Yeni Nesil İçin Dersler: Finlandiya, öğrencilere propagandayı öğretmenin yeni yollarını deniyor. İşte diğer ülkelerin başarısından öğrenebilecekleri.
  • Kovid Mitleri : Uzmanlar, koronavirüsle ilgili yanlış bilgilerin yayılmasının – özellikle Gab gibi aşırı sağcı platformlarda – muhtemelen pandeminin kalıcı bir mirası olacağını söylüyor. Ve kolay çözümler yok.
  • Bir “Yetenek Savaşı”:Yanlış bilgileri muhtemelen pahalı bir sorumluluk olarak gören birçok şirket, bunları kontrol altında tutabilecek uzmanlığa sahip eski Twitter çalışanlarını işe almaya çalışıyor.
  • Yeni Bir Yanlış Bilgi Merkezi mi?:Yanıltıcı düzenlemeler, sahte haberler ve politikacıların derin sahte görüntüleri TikTok’ta gerçeği çarpıtmaya başlıyor.
Deepfake’lerin artan hacmi, “vatandaşların artık ortak bir gerçekliğe sahip olmadığı veya hangi bilgi kaynaklarının güvenilir olduğu konusunda toplumsal bir kafa karışıklığı yaratabileceği” bir duruma yol açabilir; Avrupa emniyet teşkilatı Europol geçen yıl bir raporda, bazen ‘bilgi kıyameti’ veya ‘gerçeklik ilgisizliği’ olarak adlandırılan bir durum” diye yazmıştı.

İngiliz yetkililer geçen yıl, “kadınları neredeyse çıplak soyan” ve 2021’in ilk sekiz ayında 38 milyon kez ziyaret edilen bir web sitesi gibi tehditlere atıfta bulundu. Ancak orada ve Avrupa Birliği’nde, teknolojiye korkuluklar koyma önerileri henüz gelmedi. kanun haline

Amerika Birleşik Devletleri’nde derin sahte teknolojiyi incelemek için federal bir görev gücü oluşturma girişimleri durdu. New York Demokrat Temsilcisi Yvette D. Clarke, 2019’da ve yine 2021’de bir yasa tasarısı önerdi – Sömürüyü Hesap Verebilirlik Yasasına Tabi Tutarak Her Bir Kişiyi Sahte Görünüşlerden Koruma – henüz oylamaya gelmedi. Bu yıl tasarıyı yeniden sunmayı planladığını söyledi.

Bayan Clarke, derin sahtelerin filigran veya tanımlayıcı etiketler taşımasını gerektirecek olan tasarısının “koruyucu bir önlem” olduğunu söyledi. Buna karşılık, yeni Çin kurallarını “daha çok bir kontrol mekanizması” olarak tanımladı.

“Sofistike sivil toplumların çoğu bunun nasıl silah haline getirilebileceğinin ve yıkıcı olabileceğinin farkında” dedi ve ABD’nin başka bir öncüyü takip etmek yerine kendi standartlarını belirleme konusunda daha cesur olması gerektiğini de sözlerine ekledi.


Bayan Clarke, “Çinlilerin teknoloji alanında öğle yemeğimizi yemesini hiç istemiyoruz” dedi. “Teknoloji endüstrisi ve bu alandaki tüketici korumaları hakkındaki beklentilerimiz için temel oluşturabilmek istiyoruz.”

Ancak kolluk kuvvetleri, sektörün hala derin sahtekarlıkları tespit edemediğini ve teknolojinin kötü niyetli kullanımlarını yönetmek için mücadele ettiğini söyledi. Kaliforniya’daki bir avukat, 2021’de bir hukuk dergisinde, bazı derin sahte kuralların “neredeyse aşılmaz bir fizibilite sorunu” olduğunu ve (genellikle anonim) tacizciler izlerini kolayca gizleyebildiği için “işlevsel olarak uygulanamaz” olduğunu yazdı.

Amerika Birleşik Devletleri’nde var olan kurallar büyük ölçüde siyasi veya pornografik derin sahtekarlıkları hedefliyor. Silikon Vadisi’nin bazı kısımlarını temsil eden ve bu tür yasalara sponsor olan California Eyalet Meclisi’nde bir Demokrat olan Marc Berman, yasalarını davalar veya para cezaları yoluyla uygulamaya yönelik herhangi bir çabadan haberi olmadığını söyledi. Ancak, bir deepfaking uygulamasının, yasalarından birine uyarak, 2020 seçimlerinden önce Başkan Donald J. Trump’ı taklit etme yeteneğini ortadan kaldırdığını söyledi.

New York da dahil olmak üzere yalnızca birkaç eyalet derin sahte pornografiyi kısıtlıyor. 2019’da yeniden seçilmek için yarışırken, Houston belediye başkanı, bir aday arkadaşından gelen kritik bir açıklamanın, bazı yanıltıcı siyasi derin sahtekarlıkları yasaklayan bir Teksas yasasını çiğnediğini söyledi.

Bay Berman, “Değerin yarısı, daha fazla insanın sosyal medya platformlarında gördükleri hakkında biraz daha şüpheci olmasına neden oluyor ve insanları her şeyi göründüğü gibi görmemeye teşvik ediyor” dedi.

Vermont Demokrat Temsilcisi Peter Welch, 2019’da derin sahtekarlıklarla ilgili bir duruşma sırasında. Kredi… Chip Somodevilla/Getty Images

Ancak teknoloji uzmanları, kanun yapıcılar ve mağdurlar daha güçlü koruma talep etseler de ihtiyatlı olmaya da teşvik ediyorlar. Deepfake kanunlarının hem aşırı kapsamlı hem de dişsiz olma riski taşıdığını söylediler. Politika veya kültür üzerine geçerli yorumlar olarak tasarlanan deepfake’lere etiketleri veya sorumluluk reddi beyanlarını zorlamak da içeriğin daha az güvenilir görünmesine neden olabilir, diye eklediler.


Electronic Frontier Foundation gibi dijital hak grupları, yasa koyucuları derin sahte polisliği teknoloji şirketlerine bırakmaya veya dolandırıcılık, telif hakkı ihlali, müstehcenlik ve iftira gibi sorunları ele alan mevcut bir yasal çerçeveyi kullanmaya zorluyor.

Sivil özgürlükler avukatı David Greene, “Bu, uygulanmasında neredeyse her zaman zararlı olmayan, insanları meşru, üretken konuşmadan soğutan materyalleri yakalayacak olan hükümet müdahalesinden ziyade, zararlara karşı en iyi çözümdür” dedi. Elektronik Sınır Vakfı.

Birkaç ay önce Google, yapay zeka sistemlerini derin sahtekarlıklar oluşturmak üzere eğitmek için insanların bir veri analiz aracı olan Colaboratory platformunu kullanmalarını yasaklamaya başladı. The Verge’e göre sonbaharda, bir görüntü oluşturma aracı olan Stable Diffusion’ın arkasındaki şirket, çıplak ve pornografik içerik oluşturmaya çalışan kullanıcıları engelleyen bir güncelleme başlattı. Meta, TikTok, YouTube ve Reddit, yanıltıcı olması amaçlanan derin sahteleri yasaklar.

Ancak yasalar veya yasaklar, sürekli olarak uyum sağlamak ve gelişmek üzere tasarlanmış bir teknolojiyi kontrol altına almakta zorlanabilir. Geçen yıl, RAND Corporation’dan araştırmacılar, 3.000’den fazla deneğe bir dizi video gösterdiklerinde ve onlardan manipüle edilmiş olanları (iklim aktivisti Greta Thunberg’in bir deepfake’i gibi) belirlemelerini istediklerinde, deepfake’leri tanımlamanın ne kadar zor olabileceğini gösterdiler. iklim değişikliğinin varlığını reddetmek).

Grup, zamanın üçte birinden fazlasında yanıldı. Carnegie Mellon Üniversitesi’nde makine öğrenimi okuyan birkaç düzine öğrenciden oluşan bir alt küme bile, zamanın yüzde 20’sinden fazlasında yanıldı.

Microsoft ve Adobe gibi şirketlerden gelen girişimler artık medyanın kimliğini doğrulamaya ve yapay içeriği işaretleyen tutarsızlıkları tanımak için moderasyon teknolojisini eğitmeye çalışıyor. Ancak kusurları düzeltmenin, filigranları kaldırmanın ve izlerini kapatmak için meta verileri değiştirmenin yeni yollarını keşfeden deepfake yaratıcılarını geride bırakmak için sürekli bir mücadele içindeler.

RAND’da bir fizik bilimcisi olan Jared Mondschein, “Deepfake yaratıcıları ve deepfake dedektörleri arasında teknolojik bir silahlanma yarışı var” dedi. “Deepfake’leri daha iyi tespit etmenin yollarını bulmaya başlayana kadar, herhangi bir mevzuatın diş sahibi olması gerçekten zor olacak.”
 
Üst