Yapay zekâ modelleri geliştikçe gerçeklikten daha çok sapıyor: Halüsinasyon oranı iki katına çıktı
OpenAI, Google ve DeepSeek gibi teknoloji devlerinin en yeni yapay zekâ modelleri, daha güçlü işlem kabiliyetlerine rağmen giderek daha fazla yanlış ve uydurma bilgi üretiyor. Sentetik veri kullanımı ve sistemlerin çalışma prensibindeki belirsizlik, yapay zekâda 'halüsinasyon' krizini derinleştiriyor.

Yapay zekâların yalanları artıyor
Yapay zekâ dünyası, giderek büyüyen ve artık göz ardı edilemeyen bir problemle karşı karşıya: Halüsinasyonlar. Bu terim, dil modeli tabanlı yapay zekâ sistemlerinin gerçeğe dayanmayan bilgileri güvenle sunma eğilimini tanımlamak için kullanılıyor. Gelişmiş modellerin ortaya çıkmasıyla bu sorun azalmadı; aksine, artış gösterdi.
Yeni modeller, eski hataları katlayarak sürdürüyor
OpenAI, Anthropic, Google ve DeepSeek gibi büyük teknoloji şirketleri tarafından geliştirilen yeni nesil yapay zekâ sistemleri, iddialı biçimde daha tutarlı ve doğru yanıtlar vermek üzere tasarlandı. Ancak New York Times'ın yayımladığı son rapora göre, OpenAI’ın geçtiğimiz ay tanıttığı "o3" ve "o4-mini" isimli modellerin iç testlerde sırasıyla %33 ve %48 oranında halüsinasyon içerdiği tespit edildi. Bu oranlar, önceki modellere kıyasla neredeyse iki katlık bir artışı ifade ediyor.
Sadece OpenAI değil, sektör genelinde sorun büyüyor
Halüsinasyon problemi yalnızca OpenAI’ın modelleriyle sınırlı değil. Google ve DeepSeek gibi rakiplerin sistemleri de benzer sorunları barındırıyor. Uzmanlara göre sorun, modellerin kendisinden ziyade, bu modellerin nasıl çalıştığıyla ilgili. Vectara CEO’su Amr Awadallah, bu durumu 'Her zaman halüsinasyon görecekler. Bu asla ortadan kalkmayacak' sözleriyle özetliyor.
Sentetik veriye geçiş krizi derinleştiriyor olabilir
Giderek daha karmaşık hâle gelen modeller için gerekli olan gerçek dünya verisi tükendiği için şirketler, yapay zekâ tarafından üretilmiş sentetik veriye yönelmeye başladı. Ancak uzmanlara göre bu durum, modellerin hatalı bilgi üretme riskini daha da artırabilir. Zira bir modelin hatalı üretimini temel alarak eğitilen başka bir model, bu hataları katlayarak büyütebilir.
Sorun biliniyor ama çözüm net değil
Halüsinasyon problemi, yapay zekâ endüstrisinin en başından bu yana farkında olduğu bir konu. Ancak çözüm geliştirmek için sistemlerin nasıl çalıştığını tam olarak anlamak gerekiyor. Uzmanlara göre bu şu an mümkün değil. Bu nedenle çözüm ya beklenmedik bir yenilikle gelecek ya da şu an zaten göz önünde olan ancak henüz fark edilmeyen bir yaklaşımda gizli olabilir.
Kaynak: CUMHA - CUMHUR HABER AJANSI