
Yapay Zeka İnsanlar Gibi Düşünmeyi Öğreniyor…
Georgia Tech’teki araştırmacılar, Nature Human Behaviour’da yayımlanan çalışmalarında gösterildiği gibi, insanların nasıl çalıştığına benzer şekilde, seçimlerinde değişkenlik ve güven sergilemeleri için onları eğiterek insan karar alma süreçlerini taklit eden sinir ağlarını ilerletiyorlar. RTNet adlı modelleri, gürültülü rakamları tanımada insan performansıyla eşleşmekle kalmıyor, aynı zamanda güven ve kanıt birikimi gibi insan benzeri özellikler uygulayarak hem doğruluğu hem de güvenilirliği artırıyor.
Georgia Tech araştırmacıları, güven ve değişkenlik de dahil olmak üzere insan karar alma süreçlerini taklit eden, rakam tanıma gibi görevlerdeki güvenilirliğini ve doğruluğunu artıran RTNet adlı bir sinir ağı geliştirdiler .
İnsanlar her gün yaklaşık 35.000 karar verir, yolun karşısına geçmenin güvenli olup olmadığını belirlemekten öğle yemeğinde ne yiyeceğine karar vermeye kadar. Her karar seçenekleri değerlendirmeyi, benzer geçmiş durumları hatırlamayı ve doğru seçim konusunda makul derecede emin hissetmeyi içerir. Anlık bir karar gibi görünen şey aslında çevreden kanıt toplamaktan kaynaklanır. Ek olarak, aynı kişi aynı senaryolarda farklı zamanlarda farklı kararlar verebilir.
Sinir ağları tam tersini yapar ve her seferinde aynı kararları verir. Şimdi, Doçent Dobromir Rahnev’in laboratuvarındaki Georgia Tech araştırmacıları, onlara daha çok insan gibi kararlar almaları için eğitim veriyor. İnsan karar alma bilimi, makine öğrenimine yeni uygulanıyor , ancak araştırmacılara göre gerçek insan beynine daha da yakın bir sinir ağı geliştirmek onu daha güvenilir hale getirebilir.
Nature Human Behaviour dergisinde yayınlanan bir makalede , Psikoloji Fakültesi’nden bir ekip, insanlarınkine benzer kararlar almak üzere eğitilmiş yeni bir sinir ağını ortaya koyuyor.
Kod Çözme Kararı
Georgia Tech’te psikoloji alanında doktora derecesi alan Farshad Rafiei, “Sinir ağları, kararları konusunda kendilerine güvenip güvenmediklerini size söylemeden karar verirler,” dedi. “Bu, insanların karar alma biçimleriyle arasındaki temel farklardan biridir.”
Örneğin, büyük dil modelleri (LLM) halüsinasyonlara yatkındır. Bir LLM’ye cevabını bilmediği bir soru sorulduğunda, yapmacıklığı kabul etmeden bir şeyler uydurur. Buna karşılık, aynı durumdaki çoğu insan cevabı bilmediğini kabul eder. Daha insan benzeri bir sinir ağı inşa etmek bu ikilemi önleyebilir ve daha doğru cevaplara yol açabilir.
Model Yapımı
Ekip, sinir ağlarını MNIST adlı ünlü bir bilgisayar bilimi veri kümesinden el yazısıyla yazılmış rakamlar üzerinde eğitti ve her sayıyı deşifre etmesini istedi. Modelin doğruluğunu belirlemek için, orijinal veri kümesiyle çalıştırdılar ve ardından insanların ayırt etmesini zorlaştırmak için rakamlara gürültü eklediler. Modelin performansını insanlarla karşılaştırmak için, modellerini (ve diğer üç modeli: CNet, BLNet ve MSDNet) gürültüsüz orijinal MNIST veri kümesi üzerinde eğittiler, ancak deneylerde kullanılan gürültülü versiyonda test ettiler ve iki veri kümesinden elde edilen sonuçları karşılaştırdılar.
Araştırmacıların modeli iki temel bileşene dayanıyordu: Karar vermek için olasılık kullanan bir Bayes sinir ağı (BNN) ve her seçim için kanıtı takip eden bir kanıt biriktirme süreci. BNN her seferinde biraz farklı yanıtlar üretir. Daha fazla kanıt topladıkça, biriktirme süreci bazen bir seçeneği, bazen de diğerini destekleyebilir. Karar vermek için yeterli kanıt olduğunda, RTNet biriktirme sürecini durdurur ve bir karar verir.
Araştırmacılar ayrıca, insanların hızlı karar vermeleri gerektiğinde daha az doğru davrandıklarını belirten “hız-doğruluk dengesi” adı verilen psikolojik bir olguyu takip edip etmediğini görmek için modelin karar alma hızını zamanladılar.
Modelin sonuçlarına sahip olduklarında, bunları insanların sonuçlarıyla karşılaştırdılar. Altmış Georgia Tech öğrencisi aynı veri setini inceledi ve kararlarına olan güvenlerini paylaştılar ve araştırmacılar doğruluk oranı, tepki süresi ve güven kalıplarının insanlar ve sinir ağı arasında benzer olduğunu buldular.
“Genel olarak konuşursak, mevcut bilgisayar bilimi literatüründe yeterli insan verimiz yok, bu nedenle insanların bu görüntülere maruz kaldıklarında nasıl davranacaklarını bilmiyoruz. Bu sınırlama, insan karar verme sürecini doğru bir şekilde taklit eden modellerin geliştirilmesini engelliyor,” dedi Rafiei. “Bu çalışma, MNIST’e yanıt veren insanların en büyük veri kümelerinden birini sağlıyor.”
Ekibin modeli sadece tüm rakip deterministik modellerden daha iyi performans göstermekle kalmadı, aynı zamanda insan psikolojisinin bir diğer temel unsuru nedeniyle daha yüksek hızlı senaryolarda daha doğruydu: RTNet insanlar gibi davranır. Örneğin, insanlar doğru kararlar aldıklarında kendilerini daha güvende hissederler. Rafiei, modeli güveni desteklemek için özel olarak eğitmek zorunda kalmadan bile modelin bunu otomatik olarak uyguladığını belirtti.
“Modellerimizi insan beynine daha yakın hale getirmeye çalışırsak, ince ayar yapmadan davranışın kendisinde kendini gösterecektir” dedi.
Araştırma ekibi, potansiyelini test etmek için sinir ağını daha çeşitli veri kümeleri üzerinde eğitmeyi umuyor. Ayrıca, bu BNN modelini diğer sinir ağlarına uygulayarak, insanların daha çok rasyonalize edebilmelerini sağlamayı umuyorlar. Sonunda, algoritmalar sadece karar alma yeteneklerimizi taklit etmekle kalmayacak, aynı zamanda günlük olarak aldığımız 35.000 kararın bilişsel yükünün bir kısmını da hafifletmeye yardımcı olabilecek.