İngiltere Yapay Zeka Güvenlik Enstitüsü’nden bilgisayar bilimcileri ile Stanford, Berkeley ve Oxford üniversiteleri dahil olmak üzere 14 farklı kurumdan 29 araştırmacı, “Önemli Olanı Ölçmek: Büyük Dil Modeli Kıyaslamalarında Yapı Geçerliği” başlıklı bir çalışma gerçekleştirdi.
Bu çalışma kapsamında, yapay zekanın iki önemli alt dalı olan “doğal dil işleme” ve “makine öğrenimi” alanlarından alınan 445 değerlendirme testi sistematik bir şekilde incelendi.
Yapılan incelemelerin sonucunda, testlerin büyük bir kısmının “sonuçların geçerliliğini tehlikeye atabilecek” hatalara sahip olduğu belirlendi.
Çalışmanın baş yazarı olan Oxford İnternet Enstitüsü’nden Andrew Bean, Guardian’a verdiği demeçte, bu testlerin büyük teknoloji firmaları tarafından piyasaya sunulan yeni yapay zeka modellerinin değerlendirilmesinde kullanıldığını ifade etti.
Bean, bu değerlendirme testlerinin yapay zekayla ilgili her türlü iddianın temelini oluşturduğunu belirterek, ortak tanımlar ve sağlıklı ölçümler olmaksızın modellerin gerçekten ne derece geliştiğini anlamanın zorlaştığını vurguladı.
Diğer Teknoloji ve Bilim Haberleri için tıklayın

Yorumlar kapalı.