California’daki Alameda County Yüksek Mahkemesi’nde görülen bir konut davasında, hâkim Victoria Kolakowski, sunulan bir video kaydında tanığın yüz ve ses hareketlerindeki uyumsuzluklar üzerine delilin yapay zeka ile üretildiğini tespit etti.
Belgede gerçek bir tanık gibi gösterilen kayıt, hâkim tarafından deepfake kabul edildi ve dava 9 Eylül’de reddedildi. Yeniden değerlendirme talebi ise 6 Kasım’da reddedildi.
Kolakowski’ye göre bu olay, sahte yapay zekâ görüntülerinin mahkemede delil olarak sunulduğu ilk örneklerden biri ve çok daha büyük bir tehdidin habercisi.
“Gerçek olmayan bir delile dayanarak karar vermekten korkuyoruz”
Minnesota 10. Yargı Bölgesi hâkimi Stoney Hiljus, her geçen gün daha fazla hâkimin bu durumdan endişe duyduğunu söyledi. Hiljus, “Hâkimler, gerçek olmayan bir delile dayanarak insanların hayatını etkileyecek bir karar vermekten korkuyor” dedi.
Louisiana Beşinci Temyiz Mahkemesi hâkimi Scott Schlegel ise sahte ses kayıtlarının kolayca üretilebileceği ve koruma kararı gibi kritik süreçlerde yanlış kararların çıkabileceği uyarısı yaptı:
“Eşim, 30 yıldır benim sesimin her versiyonunu elinde tutuyor. 10 saniye sesle tehdit içeren sahte bir kayıt oluşturup herhangi bir mahkemeye götürebilir. O kayıtla bir hâkim koruma kararını imzalar.”
California Santa Clara Yüksek Mahkemesi hâkimi Erica Yew ise deepfake delillerinin sandığımızdan çok daha sık kullanıldığını ancak bunların raporlandığı bir kayıt sistemi bulunmadığını belirtti.
Delil sistemi için yeni kurallar gündemde
Ulusal Eyalet Mahkemeleri Merkezi ve Thomson Reuters Enstitüsü, hâkimlerin deepfake delillerle mücadelemelerine yardımcı olmak amacıyla bir rehber yayınladı.
Rehber, hâkimlere şu soruları sormalarını öneriyor:
Delilin kaynağı nedir?
Kimler delile erişti?
Dosyada değişiklik yapıldı mı?
Ek doğrulayıcı kanıt var mı?
Bazı hukukçular, mevcut delil doğrulama kurallarının yeterli olmadığını ve yapay zekâ ile ilgili özel düzenlemelere ihtiyaç duyulduğunu savunuyor. Ancak ABD Yargı Konferansı mayıs ayında sunulan önerileri kabul etmedi ve mevcut kuralların yeterli olduğu görüşünü benimsedi.
“Artık güven ama doğrula değil; güvenme ve doğrula dönemi”
Uzmanlar, yapay zekâ sahteciliğinin avukatları da sorumluluk almaya zorlayacağını ifade ediyor. Louisiana’da bu yıl çıkarılan bir yasa, avukatlara müvekkillerinin sunduğu delillerin üretildiği yöntemi araştırma yükümlülüğü getiriyor.
Dijital delil uzmanı Daniel Garrie, yalnızca teknik araçların yeterli olmayacağını, insan uzmanlığının da gerekli olduğunu belirtti. Yakın gelecekte metadata bilgileri, dosyanın üretim tarihi, cihaz modeli ve düzenleme geçmişi gibi görünmeyen veri katmanları, en önemli doğrulama araçlarından biri olacak.
Uzmanlar, yapay zekanın yargı sisteminin temel dayanağını sarsabileceği uyarısında bulunuyor.
Bilgisayar Bilimi uzmanı Maura Grossman, “Herkesin elinde sahte delil üretmek için gerekli teknoloji var. Bu yeni dönemde ‘güven ama doğrula’ değil, ‘güvenme ve doğrula’ mantığıyla hareket edilmeli” dedi.