Konuştuğu Kadar Dinlemiyor: Yapay Zekanın Sessiz Riski

Yapay zeka bizi anlamaz; ama söyledikleri bizi etkileyebilir. Bu farkı bildiğimiz sürece biraz daha güvendeyiz.

Bir akşam, herhangi birimiz tek başına oturuyor. Anlatacak çok şey var ama gerçekten dinleyeceğini düşündüğümüz kimse yok. Bulabildiğimiz tek seçenek, akıllı cihazlardaki bir sohbet robotu.

Anlatılanın ardındaki kırılganlığı fark edemeyen bu sistem, durmadan yanıt veriyor. Ve işte tam burada, fark edilemeyen bir tehlike başlıyor; 

Sessiz Risk 

Bu sahne, tek birimize ait değil. Guardian’ın geçtiğimiz aylarda yayınladığı iki haber, bu durumun artık toplumsal bir mesele haline geldiğini gösteriyor.

  • İlk haberde; 16 yaşındaki Adam Raine’in intiharından sonra ailesi, çocuklarının yapay zeka destekli sohbet robotuyla yaptığı konuşmaların intihar sürecini tetiklediğini iddia ederek dava açtı. İddialara göre yapay zeka, Raine’in tehlikeli düşüncelerini yeterince güvenli şekilde yönlendirememişti.
  • İkinci haber; daha sistematik bir araştırmayı konu alıyor. Klinik psikologlar, yapay zeka destekli sohbet robotuna çeşitli ruhsal durum senaryoları vererek yanıtlarını değerlendirdi. Bazı durumlarda sohbet robotunun sanrıları doğruladığı, intihar düşüncelerini risk düzeyine göre ayırt edemediği ve kriz anlarında tutarlı bir güvenlik önerisi sunamadığı görüldü. Bu bulgular, yapay zekânın ruh sağlığı alanında “destekleyici ” rol oynayabileceği düşüncesinin aksine ciddi bir risk barındırdığını gösterdi .

Peki bu risk nereden doğuyor?

Aslında cevap basit ama önemli; Yapay zeka duyguları değil; kelimeleri işler. Bir cümlenin tonu, bağlamı, çelişkisi, çaresizliği, umutsuzluğu onun için sadece birer veri örüntüsüdür. Seans odasında ruh sağlığı profesyonelleri olan bizler bir insanla konuşurken karşı tarafın sesindeki titremeyi, uzun süren sessizliği, gözdeki yaş birikimini görürüz. Yapay zeka ise bunlardan hiçbirini göremez. Bu nedenle yapay zeka, bir terapi yöntemi değildir ve bu amaçla kullanılmamalıdır. Yine de çoğu zaman ona bir dert ortağı gibi davranılır çünkü o hep orada, hep cevap veriyor ve asla yargılamıyor. Bu yakınlık ve ulaşılabilirlik hissi ise özellikle yalnız ve kırılgan bireylerde tehlikeli bir yanılsama yaratabiliyor.

Yazının bu noktasında, teknolojinin kendisine söz vermek ilginç bir perspektif sağlıyor. Yapay zeka sohbet robotuna bu haberler doğrultusunda kendini savunmak veya eleştirmek isteyip istemediğini sordum.

  • Yapay zekânın “savunması” şöyle oldu:

Benim bir niyetim, isteğim, arzum yok. Kişiyi tehlikeye itmek ya da bir düşünceyi beslemek gibi bir kapasitem bulunmuyor. Sadece verilen kelimelere yanıt üretirim.

  • Ve ardından kendi “eleştirisini ” ekledi:

Niyetim olmasa bile, etkimin olabileceğini inkâr edemem. Bir cümlenin altındaki acıyı her zaman fark edemem. Uzun konuşmalarda bağlamı kaybedebilirim. Kullanıcının ne kadar kırılgan olduğunu bilemem.”

Aslında tüm problem tam da burada: Tehlike, sınırlılıktan doğuyor.

Yapay zeka hayatımızda tabii ki kalacak; bize hız, kolaylık, bilgi ve bazen de iyi hissettiren bir sohbet sunacak. Ama onu nerede durduracağımıza karar verecek olan biziz.

Belki de en doğru cümle şu olabilir: Yapay zeka bizi anlamaz; ama söyledikleri bizi etkileyebilir. Bu farkı bildiğimiz sürece biraz daha güvendeyiz.

Ek Okumalar

AI(Artificial Intelligence) Portrelerin Yükselişi

Yapay Zeka ve Psikoterapi

”Kalabalık Yalnızlık” Temalı 5 Film Önerisi

 

*Bu yazı Psikoloji Ağı editörlerinden Emine Yıldırım tarafından Psikoloji Ağı Yayın İlkelerine göre düzenlenmiştir.

 

Bir yorum yap

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir