HaberlerTeknoloji

Yapay Zeka, Zihin Okumada Yeni Bir Çağ Başlatıyor: Düşünceler Cümlelere Dönüşüyor!

 

 Yapay Zeka, Zihin Okumada Yeni Bir Çağ Başlatıyor: Düşünceler Cümlelere Dönüşüyor!

 

Japonya’da NTT İletişim Bilimleri Laboratuvarları’nda çalışan sinirbilimci Tomoyasu Horikawa, beyin aktivitelerini yapay zeka ile analiz ederek zihinsel görüntüleri metne çeviren “zihin altyazısı” (mind captioning) yöntemini tanıttı. Bu devrimci teknik, konuşma bozukluğu yaşayan bireyler için umut vaat ediyor.

Japonya’dan gelen bu çığır açıcı buluş, bilim dünyasını heyecanlandırdı. Science Advances dergisinde yayımlanan araştırmaya göre, Horikawa ve ekibi, fonksiyonel manyetik rezonans görüntüleme (fMRI) taramaları sırasında beyin aktivitelerini kaydederek, katılımcıların izlediği kısa videoların zihinsel temsillerini yapay zeka modelleriyle çözümlüyor.

Araştırma, 22-37 yaş arası altı Japonca konuşan katılımcının (dört erkek, iki kadın) 2.180 adet ses içermeyen kısa video izlemesiyle gerçekleştirildi. Katılımcıların beyin sinyalleri, derin dil modelleri (DeBERTa-large) kullanılarak semantik özelliklere dönüştürüldü ve ardından RoBERTa-large modeli ile açıklayıcı cümleler üretildi.

Yöntemin gücü, yalnızca nesneleri tanımlamakla kalmayıp, sahnelerin bağlamını, ilişkilerini ve eylemleri de yakalamasında yatıyor. Örneğin, bir videoda şelaleden atlayan bir kişinin görüntüsü, beyin aktivitesinden “Bir adam şelalenin kenarından atlıyor” gibi detaylı bir cümleye çevrilebiliyor.

Horikawa, “Düşünceyi metne çevirme konusunda uzun süredir ilerleme kaydedildiğini ancak zihindeki karmaşık görüntüleri anlamlı bir dile aktarmanın hâlen zor bir problem olduğunu” vurguluyor.

Yöntemin Teknik Detayları ve Başarı Oranları

Araştırma, iki aşamalı bir süreç izliyor: İlk olarak, lineer kod çözme modelleri (L2-regularized ridge regression) ile beyin aktiviteleri video altyazılarının semantik özelliklerine eşleştiriliyor. İkinci aşamada, metin optimizasyonu yapılıyor; kelimeler maskelenerek (değiştirilerek) ve bağlamsal doldurmayla (unmasking) aday cümleler üretiliyor. Bu iteratif yaklaşım, beyin verisiyle en uyumlu metni seçerek %50’ye varan doğruluk oranı sağlıyor – dil ağını bile hariç tutarak.

Çalışma, algılanan görüntülerin yanı sıra hatırlanan zihinsel imgeleri de başarıyla metne dönüştürebildiğini gösteriyor. Cohen’s d metriğiyle ölçülen ayrıştırılabilirlik (discriminability) değerleri, tüm deneklerde anlamlı düzeyde yüksek çıktı (P < 0.01, FDR düzeltilmiş).

Bu, yapay zekanın görsel semantiği dil ağının ötesinde, beynin diğer bölgelerinde kodladığını ortaya koyuyor.

Gelecekteki Etkileri: İletişimde Yeni Ufuklar

Bu teknoloji, afazi, ALS (Amyotrofik Lateral Skleroz) gibi konuşma ve motor becerileri etkileyen hastalıklarda devrim yaratabilir. Sözel iletişimde zorlanan otistik bireyler için de alternatif bir kanal sunuyor; düşünceler doğrudan metne aktarılabilecek.

Horikawa’nın yöntemi, veritabanı aramalarına veya karmaşık nonlinear modellere ihtiyaç duymadan, yorumlanabilir bir arayüz sağlıyor. Gelecekte, etik sorunlar (örneğin, düşünce gizliliği) ve öznel yorum farklılıkları gibi sınırlamalar ele alınmalı.

NTT Laboratuvarları’ndaki bu çalışma, yapay zekanın nörobilimle entegrasyonunun sınırlarını zorluyor. RDGUNDEM olarak, bu tür yenilikleri takip etmeye devam edeceğiz – zihinlerimizi yazıya döken bir dünya kapıda!

Kaynaklar: Science Advances

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
While viewing the website, tap in the menu bar. Scroll down the list of options, then tap Add to Home Screen.
Use Safari for a better experience.