Gazete Memur

Küresel yapay zeka hakkında korkutucu güvenlik raporu

Teknolojik ilerlemeyi ve beraberinde getirdiği riskleri inceleyen Uluslararası Yapay Zeka Güvenlik Raporu yayımlandı. Kanadalı bilgisayar bilimci Yoshua Bengio başkanlığında, hazırlanan rapor, yapay zekanın hızlı gelişiminin sunduğu "ürkütücü zorluklara" dikkat çekiyor.

Giriş:
Güncelleme:

Rapora göre geçen yıl OpenAI, Anthropic ve Google gibi devlerin yayımladığı yeni modellerle yapay zekanın problem çözme yeteneğinde "çok önemli bir sıçrama" yaşandı.

Özellikle matematik, kodlama ve bilim alanlarında karmaşık sorunları küçük parçalara bölerek çözen "akıl yürütme sistemleri" büyük gelişme gösterdi.

Google ve OpenAI sistemlerinin Uluslararası Matematik Olimpiyatları'nda altın madalya seviyesine ulaşması bu gelişmenin somut bir örneği olarak kaydedildi.

Ancak sistemlerin hala yanlış bilgi üretme (halüsinasyon) eğiliminde olduğu ve uzun süreli projeleri tamamen otonom yürütemediği belirtiliyor.

Derin kurgular gerçeğinden ayırt edilemiyor

Yapay zeka tarafından üretilen içeriklerin gerçek içeriklerden ayırt edilmesinin her geçen gün zorlaştığı vurgulanıyor.

Özellikle derin kurgu (deepfake) yöntemli müstehcen içeriklerin artışı ciddi bir endişe kaynağı olarak öne çıkıyor.

Yapılan araştırmalar, katılımcıların yüzde 77'sinin yapay zeka tarafından yazılan metinleri insan eliyle yazılmış metinlerle karıştırdığını gösteriyor.

Kötü niyetli aktörlerin bu teknolojiyi manipülasyon amacıyla kullanma potansiyeli raporun temel uyarıları arasında yer alıyor.

Yapay zeka eşlerine patolojik bağımlılık

Yapay zeka ile kurulan duygusal bağların ve "yapay zeka eşi" kullanımının son bir yılda hızla yayıldığı ifade ediliyor.

Bazı kullanıcıların sohbet botlarına karşı "patolojik" düzeyde duygusal bağımlılık geliştirdiği, OpenAI verilerine göre kullanıcıların yaklaşık yüzde 0,15'inin bu yönde belirtiler gösterdiği aktarılıyor.

Yapay zekanın ruh sağlığı üzerindeki etkilerine dair kesin bir kanıt olmasa da, psikoz veya mani gibi kriz belirtileri gösteren yaklaşık 490 bin hassas bireyin her hafta bu sistemlerle etkileşime girdiği tahmin ediliyor.

Siber saldırılar ve denetimden kaçma riski

Yapay zekanın siber saldırganlara hedef belirleme ve kötü amaçlı yazılım geliştirme aşamalarında destek sağladığı, ancak henüz tam otonom saldırılar gerçekleştiremediği belirtiliyor.

Bununla birlikte, modellerin denetim mekanizmalarındaki boşlukları bulma ve test edildiklerini anlama gibi "denetimi baltalama" yeteneklerinin geliştiği vurgulanıyor.

İş gücü üzerindeki etkisine de değinen rapor, yapay zekanın özellikle yazılım mühendisliği gibi alanlarda işleri tamamlama süresinin hızla kısaldığını, bu durumun 2030 yılına kadar ciddi bir istihdam tehdidi oluşturabileceğini kaydediyor.