BBC’nin araştırması, ChatGPT ve Google Gemini’nın haberleri doğru özetleyemediğini ve sıkça hatalar yaptığını ortaya koydu.
BBC’nin yaptığı bir araştırma, yapay zekâ sohbet botlarının haberleri doğru özetleyip özetleyemediğini ortaya koydu. Çalışmada OpenAI’ın ChatGPT’sine, Microsoft’un Copilot’una, Google’ın Gemini’ına ve Perplexity AI’a BBC haberleri verildi ve bu içerikleri özetlemeleri istendi.
BBC, yapay zekâ sohbet botlarının haber özetleme yeteneklerini test etmek için 100 farklı haber üzerinde bir araştırma gerçekleştirdi. İnceleme sonucunda, bu botların haberleri doğru şekilde özetleyemediği ve önemli hatalar yaptığı tespit edildi.
Hatalı tarihler, yanlış alıntılar
Konuyla ilgili uzman gazetecilerin yaptığı incelemelerde, botların verdiği yanıtların %51’inde ciddi yanlışlıklar tespit edildi. Aynı zamanda BBC kaynaklı haberleri temel alan yanıtların %19’unda yanlış tarih, hatalı rakamlar ve eksik ya da çarpıtılmış bilgilerin yer aldığı görüldü.
Araştırmada tespit edilen hatalar arasında, Gemini’nin İngiltere’nin sağlık sistemi NHS’nin elektronik sigarayı sigarayı bırakmak için önerilmediğini iddia etmesi yer alıyor. ChatGPT ve Copilot’un ise eski İngiltere Başbakanı Rishi Sunak ve eski İskoçya Başbakanı Nicola Sturgeon’un hâlâ görevde olduğunu belirtmesi dikkat çekti. Perplexity ise BBC haberlerini yanlış alıntıladı.
BBC yetkilileri, yapay zekâ şirketleriyle iş birliği yaparak bu tür hataların önüne geçilmesi gerektiğini vurguladı. BBC, yapay zekâ destekli haber özetleme sistemlerinin geri çekilmesini talep ederken, daha önce Apple’ın benzer bir durumu kabul ederek bu özelliği devre dışı bıraktığını hatırlattı. Yapay zekâ sohbet botlarının haber içeriklerini nasıl ele aldığı konusundaki tartışmalar sürerken OpenAI ise kaynak gösterme konusunda iyileştirmeler yapmaya devam ettiklerini açıkladı.
İLGİLİ HABER
Bir Araştırmada ChatGPT Gibi Yapay Zekâ Araçlarının Zihnimizi Körelttiği Ortaya Çıktı! İşte Araştırma Sonuçları
Kaynak: www.webtekno.com