ABD başkanının kim olduğu sorusuna yapay zekanın şaşırtıcı yanıtı!

Yapay zeka, Gemini ve ChatGPT üzere sohbet robotları sayesinde çabucak hemen herkesin kullanımına sunulmuş durumda ve kullanıcılar, bu sistemlere sorularını rahatlıkla yöneltebiliyor. Lakin, teknolojinin süratle geliştiği bir dünyada, OpenAI’nin ChatGPT’si üzere yapay zeka sistemlerinde hala temel kusurların bulunması şaşırtan.
Her gün 400 milyondan fazla kullanıcıya hizmet veren bu sohbet robotu, en kolay soruları bile gerçek bir halde yanıtlamakta hâlâ zorluklar yaşayabiliyor. Örneğin, günümüz ABD liderinin kim olduğunu gerçek formda tespit etme konusunda meşakkatler yaşanıyor.
Yüksek popülaritesine ve gelişmiş fonksiyonelliğine karşın, ChatGPT üzere yapay zeka sistemleri, temel yanılgılar yapmaya devam ediyor. Bu durum yalnızca OpenAI’ye mahsus değil; Meta’nın Llama 3 modeli üzere öbür büyük teknoloji şirketleri de misal problemlerle karşı karşıya kalıyor.
2024 seçimlerinin akabinde, bu yapay zeka sistemlerinin mevcut başkanı yanlış bir şekilde tanımladığına dair birçok olaya rastlanmıştı. Sorunun kaynağı ise, sistemlerin güncellenmesindeki aksaklıklardan kaynaklanıyor üzere görünüyor.
OpenAI, ChatGPT’nin bilgi çekirdeğini en son Haziran 2024’te güncellediğini ve bu nedenle başkanlık makamı hakkında şimdiki olmayan bilgilerin sistemde hâlâ mevcut olduğunu açıkladı. Sistem, gerçek vakitli arama yapabilme kapasitesine sahip olmasına karşın, bilhassa ödeme yapmayan kullanıcılar hâlâ bu çeşit yanılgılarla karşılaşıyor. ChatGPT’nin günlük kullanımı, ABD liderinin kimliğiyle ilgili birçok aksaklığı gözler önüne serdi. Kullanıcılar, ChatGPT’nin Donald Trump’ın iktidara dönmesinin üzerinden aylar geçmesine karşın, hâlâ Joe Biden’ın lider olduğunu görselle gösteriyor.
Bu cins yanlış karşılıklar, kullanıcılar ortasında şaşkınlık yaratmış ve yüzlerce rapor ve yorumun oluşmasına neden olmuştur.
Hata yalnızca OpenAl’da yok
Başkanın kimliğine dair yapılan yanlışlar yalnızca OpenAI’nin sorunu değil; Meta ve Google üzere rakip firmalar da misal zorluklarla karşılaşıyor. Örneğin, Google’ın Gemini modeli, politik sorulardan kaçınmayı tercih ederek, kullanıcılara yeni cevaplar için kendi aramalarını yapmalarını öneriyor. Bu durum, yapay zeka sistemlerinin sağlam bilgi kaynakları olarak kullanılabilirliğini sorgulayan tartışmaları alevlendirmiştir. BBC’nin Şubat ayında yayımladığı bir araştırma, yapay zeka araçlarının makalelere dayanarak ürettiği karşılıkların yarısından fazlasının, uydurma alıntılar ve yanlış argümanlar içerdiğini ortaya koydu. Columbia Üniversitesi’nin Tow Merkezi’nin bağımsız tahlilleri de bu bulguları doğruladı ve bu teknolojilerin hâlâ muteber olmadığını vurguladı.
Yapay zeka sistemlerinin gelişmişliğine karşın, hakikat ve emniyetli bilgi sağlama konusunda hâlâ önemli eksiklikler bulunduğu açıkça görülüyor.