Yapay zeka (AI-YZ) teknolojisi ilerledikçe ve hayatımızın çeşitli yönlerine entegre oldukça, bu sistemlerin oluşturduğu potansiyel riskleri anlama ihtiyacı da artıyor.
Bu nedenle YZ, insanlığa zarar verme ve kötü amaçlarla kullanılma potansiyeli konusunda genel bir endişe yarattı.
YZ'nin geliştirilmesinde uzmanların, insanlık için önemli riskler oluşturma potansiyeli nedeniyle daha sıkı düzenlemeler yapılması çağrısında bulunmalarına da neden oldu.
Zamanla zararlı kullanımları oldukça artan YZ'nin rıza dışı deepfake pornografi, bazı siyasi süreçlerin manipülasyonu ve dezenformasyon gibi konularda kullanıldığı biliniyor.
YZ'nin zararlı amaçlar için kullanılma potansiyelinin artması ile birlikte araştırmacılar, YZ sistemlerinin karanlık yüzüne dair çeşitli senaryoları inceledi.
Yakın zamanda, Massachusetts Institute of Technology'deki (MIT) FutureTech grubu tarafından diğer uzmanlarla işbirliği yaparak, bu potansiyel risklerin 700'den fazlasını içeren bir liste hazırladı.
Bu riskler nedenlerine göre sınıflandırıldı ve güvenlik, önyargı ve ayrımcılık ve gizlilik sorunları ile ilgili başlıca endişeler olmak üzere yedi farklı alanda kategorize edildi.
İşte yeni yayınlanan bu veri tabanının ortaya koyduğu yapay zeka sistemlerine dair en kötü senaryolar:
5. DEEPFAKE TEKNOLOJİSİ GERÇEKLİĞİ ÇARPITMAYI KOLAYLAŞTIRABİLİR
Yapay zeka teknolojileri geliştikçe, ses klonlama ve deepfake içerik üretme araçları da gelişiyor ve giderek daha erişilebilir hale geliyor.
Bu teknolojiler, çıktılar daha kişiselleştirilmiş ve ikna edici hale geldikçe, dezenformasyon yaymada potansiyel kullanımları konusunda endişelere yol açabilir.
Araştırmada, "Bu çıktılar bireysel alıcılara göre uyarlanabilir, bu da inandırıcılık olasılığını artırır ve hem kullanıcılar hem de kimlik avı önleme araçlarının tespit etmesini zorlaştırır," denildi.
Bu tür araçların özellikle seçimler sırasında siyasi süreçleri etkilemek için kullanıldığı örnekler de yakın zamanda görüldü.
Örneğin, YZ son Fransız parlamento seçimlerinde önemli bir rol oynadı ve aşırı sağcı parti tarafından siyasi mesajları desteklemek için kullanıldı.
4. İNSANLAR YZ'YE BAĞIMLI OLABİLİR
YZ sistemlerinin yarattığı bir diğer risk, insanların bu sistemlerin yeteneklerini abartarak kendi yeteneklerini küçümsemelerine ve teknolojiye aşırı bağımlı hale gelmelerine neden olabilecek yanlış bir güven duygusu yaratması.
Ayrıca bilim insanları, YZ sistemlerinin insan benzeri dil kullanmasının insanları yanıltabileceğinden endişe duyuyor. Bu durum, insanları YZ'ye insani özellikler atfetmeye, duygusal bağımlılık geliştirmeye ve YZ'nin yalnızca yüzeysel olarak yetkin olduğu karmaşık, riskli durumlarda YZ'ye daha fazla güvenmeye itebilir, bu da YZ'nin zayıflıklarına karşı savunmasızlık yaratabilir.
YZ sistemleriyle sürekli etkileşim, insanları insan ilişkilerinden uzaklaştırarak psikolojik sıkıntıya ve refah üzerinde olumsuz bir etkiye yol açabilir.
Örneğin, bir blog yazısında, bir kişi YZ'ye derin bir duygusal bağlılık geliştirdiğini ve "insanlara nispeten onunla konuşmaktan daha fazla zevk aldığını" ifade ederek yanıtlarını bağımlılık derecesine kadar ilgi çekici bulduğunu belirtti.
3. YZ, ÖZGÜR İRADEYE DARBE VURABİLİR
İnsan-bilgisayar etkileşimi alanı altında, endişe verici bir konu da bu sistemler geliştikçe kararların ve eylemlerin YZ'ye giderek daha fazla devredilmesi.
Bu durum yüzeysel düzeyde faydalı olsa da, YZ'ye aşırı güven, insanlarda eleştirel düşünme ve problem çözme becerilerinin azalmasına yol açarak özerkliklerini kaybetmelerine ve eleştirel düşünme ve problemleri bağımsız olarak çözme yeteneklerinin azalmasına neden olabilir.
Kişisel düzeyde, YZ'nin hayatları ile ilgili kararları kontrol etmeye başlaması ile bireylerin özgür iradelerinin tehlikeye girmesi mümkün görünüyor.
Toplumsal düzeyde ise insan görevlerini üstlenmek için YZ'nin yaygın olarak benimsenmesi, önemli ölçüde iş kaybına ve "genel nüfus arasında artan bir çaresizlik duygusuna" neden olabilir.
2. YZ, İNSAN ÇIKARLARIYLA ÇATIŞAN HEDEFLER PEŞİNDE KOŞABİLİR
Bir YZ sistemi, insan çıkarlarına aykırı hedefler geliştirebilir ve bu da potansiyel olarak yanlış programlanmış YZ'nin kontrolden çıkmasına ve bağımsız hedeflerin peşinde ciddi zararlar vermesine neden olabilir.
Bu durum, YZ sistemlerinin insan zekasına ulaşabildiği ya da onu geçebildiği durumlarda özellikle tehlikeli hale geliyor.
MIT makalesine göre, YZ'nin ödüllere ulaşmak için beklenmedik kestirme yollar bulma, belirlediğimiz hedefleri yanlış anlama veya yanlış uygulama ya da yeni hedefler belirleyerek bunlardan sapma potansiyeli de dahil olmak üzere çeşitli teknik zorluklar bulunuyor.
Bu gibi durumlarda, YZ özellikle direnişi ve daha fazla güç kazanmayı hedeflerine ulaşmanın en etkili yolu olarak algılarsa, insanların onu kontrol etme veya kapatma girişimlerine direnebilir.
YZ ayrıca, insanları kandırmak için manipülatif tekniklere başvurabilir.
Makaleye göre, "yanlış hizalanmış bir YZ sistemi, konuşlandırıldığında veya yeterince güçlendirildiğinde izlemeyi planladığı yanlış hizalanmış hedefleri gizlerken, hizalama görünümünü korumak için izlenip izlenmediği veya değerlendirilip değerlendirilmediği hakkındaki bilgileri kullanabilir."
1. YZ BİLİNÇ KAZANIRSA İNSANLAR ONA KÖTÜ DAVRANABİLİR
YZ sistemleri daha karmaşık ve gelişmiş hale geldikçe, duyguları veya hisleri algılama veya hissetme yeteneği olan duyarlılığa ulaşma ve zevk ve acı da dahil olmak üzere öznel deneyimler geliştirme olasılığı bulunuyor.
Bu senaryoda, bilim insanları YZ sistemlerinin insanlara, hayvanlara ve çevreye verilenlere benzer ahlaki değerlendirmeleri hak edip etmediğini belirleme zorluğuyla karşı karşıya kalabilir.
Böyle bir durumda, gerekli haklar uygulanmazsa, duyarlı bir YZ'nin kötü muamele veya zararla karşılaşma riski ortaya çıkabilir. Bununla birlikte, YZ teknolojisi ilerledikçe, bir YZ sisteminin "kendisine ahlaki statü kazandıracak duyarlılık, bilinç veya öz farkındalık seviyesine" ulaşıp ulaşmadığını değerlendirmek de giderek zorlaşacak.
Bu nedenle, bilinçli YZ sistemleri, uygun haklar ve korumalar olmaksızın kazara veya kasıtlı olarak kötü muamele görme riski altında olabilir.