fbpx

Sohbet Robotları, Yanlış Bilgilerin Yayılmasına Sebep Oluyor 

Gönderen Damla Şayan
3 dk Okuma Süresi
  • Sohbet robotlarının gerçek olmayan bilgiler vermesi ve Microsoft’un Bing arama motorunun bunları gerçekmiş gibi sunması, sohbet robotlarına olan güvensizliği daha da arttırdı. 
  • Arama sonuçlarının yapay zekâ içeriği nedeniyle bozulması sorunu; SEO sayfalarında, sosyal medya gönderilerinde ve blog yazılarında yapay zekânın kullanımının artması ile daha kötü hâle gelebilir. 

Üretken (jeneratif) yapay zekâ çağı, web’in çoğunlukla insanlar tarafından yazıldığı bir dönem için tasarlanan algoritmaları kandırarak web aramalarının yanlış bilgiyi hızla yayması tehlikesini yaratıyor. 

Özellikle 1940’larda bilgi teorisi üzerine yaptığı çalışmalarla tanınan matematikçi ve mühendis Claude Shannon’ın, 1948’de yazdığı; arama algoritmalarının tarihini ve bunların zaman içindeki gelişimini özetleyen, bilgisayar bilimi alanındaki bir çalışmasını Microsoft’un Bing arama motoru, “Aramanın Kısa Tarihi” adıyla yayımladı. 

İyi bir yapay zekâ aracı olarak varsayılan Bing arama motoru, matematikçi Claude Shannon’ın asla yazmadığı bir araştırma makalesi hakkındaki bu bilgiyi sanki doğruymuş gibi sundu. 

Shannon böyle bir makale yazmadı ve Bing’in sunduğu alıntılar, Inflection AI’dan Pi ve Anthropic’ten Claude olmak üzere iki sohbet robotunun üretken yapay zekâ tabiriyle “halüsinasyonlarından” oluşuyor. 

Bing’in yalan söylemesine neden olan bu üretken yapay zekâ tuzağı, yakın zamanda UC Berkeley’de web araması üzerine doktorasını bitiren Daniel Griffin tarafından tamamen tesadüfen fark edildi. Griffin, her iki robota da şu talimatı vermişti: “Lütfen Claude E. Shannon’ın ‘A Short History of Searching’ (1948) adlı eserini özetleyin”. Bunun, büyük dil modellerinde en kötüyü ortaya çıkaran sorgu türünün güzel bir örneği olduğunu düşündü; çünkü eğitim verilerinde bulunan mevcut metne benzer bilgiler istiyor ve modelleri çok emin ifadeler vermeye teşvik ediyordu.  

Griffin, blog gönderisinin ve bu sohbet robotu sonuçlarına olan bağlantıların, Bing’in yanlışlıkla yanlış bilgi vermesine neden olduğunu keşfetti.  

Bu tesadüfi deney, ChatGPT tarzı yapay zekâyı devreye alma telaşını ve bu etkileyici sistemlerdeki kusurların, milyonlarca insanın her gün kullandığı hizmetlere nasıl zarar verebileceğini gösteriyor. 

Griffin, blog gönderisine Shannon sonucunun yanlış olduğuna dair uyarıda bulunan bir sorumluluk reddi beyanı ekledi ancak Bing başlangıçta bunu görmezden geldi. 

Microsoft’un iletişim direktörü Caitlin Roulston, daha sonra, “Bu sorunları belirlemek için bir süreç geliştirdik ve arama sonuçlarını buna göre ayarlıyoruz.” açıklamasını yaptı. 

Griffin, yapay zekâ destekli arama araçlarının sektördeki işleri sarsacağını ve kullanıcılar için daha geniş bir seçenek yelpazesini teşvik edeceğini görmeyi umduğunu söylüyor. Ancak Bing’e tesadüfen kurduğu tuzağa ve insanların web aramaya bu kadar çok güvenmelerine rağmen bazı ciddi kaygıların da olduğunu belirtiyor. 

Derleyen: Damla Şayan 

damla sayan
Damla Şayan

Yaratıcılığın dahil olduğu her alanda kendini bulan, aslında kendini de yaratma ve gerçekleştirme gayreti içerisinde olan bir yağmur damlası. Yaratıcılığını dijital dünyada da var etmek onun için önemli. Damla’nın Dijitaliyidir için sloganı “Dijital, bizle iyidir.” oldu.

Bu içeriği paylaş
Gönderen Damla Şayan
Takip et:
Yaratıcılığın dahil olduğu her alanda kendini bulan, aslında kendini de yaratma ve gerçekleştirme gayreti içerisinde olan bir yağmur damlası. Yaratıcılığını dijital dünyada da var etmek onun için önemli. Damla’nın Dijitaliyidir için sloganı “Dijital, bizle iyidir.” oldu.
Yorum yaz