Teknoloji

Önde Gelen Yapay Zeka Bilim Adamları İnsan Kontrolü Dışındaki Risklerin Ortaya Çıkması Konusunda Uyardı…

 

Önde Gelen Yapay Zeka Bilim Adamları İnsan Kontrolü Dışındaki Risklerin Ortaya Çıkması Konusunda Uyardı. Önde gelen yapay zeka bilim insanları, son Yapay Zeka Güvenliği Zirvesinden bu yana ilerleme kaydedilmemesini eleştirerek, küresel liderlerden acil eylem çağrısında bulundu. Yapay zeka gelişimini yönetmek ve kötüye kullanımını önlemek için katı politikalar öneriyorlar ve yapay zekanın insan yeteneklerini aşma ve ciddi riskler oluşturma potansiyelini vurguluyorlar.

Yapay zeka uzmanları, yapay zeka riskleri konusunda küresel eylemin yetersiz olduğu konusunda uyarıyor ve olası felaketleri önlemek için sıkı yönetişimi savunuyor. Önde gelen yapay zeka bilim insanları, altı ay önce Bletchley Park’ta düzenlenen ilk Yapay Zeka Güvenliği Zirvesi’nden bu yana kaydedilen ilerlemenin yetersiz olduğunun altını çizerek, dünya liderlerini yapay zeka riskleri konusunda daha kararlı adımlar atmaya çağırıyor. Bu ilk zirvede küresel liderler yapay zekayı sorumlu bir şekilde yönetmeye karar verdiler.

Ancak Seul’deki ikinci Yapay Zeka Güvenlik Zirvesi (21-22 Mayıs) hızla yaklaşırken, en iyi yirmi beş yapay zeka araştırmacısı, mevcut çabaların teknolojinin oluşturduğu tehlikelere karşı korunmak için yetersiz olduğunu ileri sürüyor. Science dergisinde bugün (20 Mayıs) yayınlanan bir fikir birliği belgesinde , yapay zeka teknolojilerinden kaynaklanan tehditlere karşı koymak için uygulanması gereken acil politika önlemleri öneriliyor.

Makalenin ortak yazarlarından Oxford Üniversitesi Mühendislik Bilimleri Bölümü’nden Profesör Philip Torr şunları söylüyor: “Dünya, son yapay zeka zirvesinde eyleme geçmemiz gerektiği konusunda hemfikirdi, ancak artık belirsiz tekliflerden somut taahhütlere geçmenin zamanı geldi.” . Bu belge, şirketlerin ve hükümetlerin yapmayı taahhüt etmesi gerekenler konusunda birçok önemli öneri sunuyor.”

Potansiyel Olarak Hızlı Yapay Zeka İlerlemesi Karşısında Dünyanın Tepkisi Doğru Yolda Değil

Makalenin yazarlarına göre, dünya liderlerinin, son derece güçlü, genel amaçlı yapay zeka sistemlerinin (birçok kritik alanda insan yeteneklerini geride bırakan) önümüzdeki on yıl veya önümüzdeki on yıl içinde geliştirilme olasılığını ciddiye alması zorunludur. Her ne kadar dünya çapındaki hükümetler yapay zekanın sınırlarını tartışıyor ve ilk yönergeleri uygulamaya koymak için bazı girişimlerde bulunmuş olsalar da, bunun pek çok uzmanın beklediği hızlı, dönüştürücü ilerleme olasılığıyla orantısız olduğunu söylüyorlar.

Yapay zeka güvenliğine ilişkin mevcut araştırmalar ciddi anlamda eksiktir; yapay zeka yayınlarının yalnızca %1-3’ü güvenlikle ilgilidir. Ayrıca, bağımsız olarak eylem gerçekleştirebilen ve hedefleri takip edebilen otonom sistemlerin kullanımı da dahil olmak üzere, kötüye kullanımı ve dikkatsizliği önleyecek mekanizmalarımız veya kurumlarımız mevcut değildir.

Dünyanın Önde Gelen Yapay Zeka Uzmanları Eylem Çağrısı Yayınladı

Bunun ışığında, yapay zeka öncülerinden oluşan uluslararası bir topluluk acil bir eylem çağrısı yayınladı. Ortak yazarlar arasında Geoffrey Hinton, Andrew Yao, Dawn Song, merhum Daniel Kahneman; yapay zeka ve yönetişimi alanında dünyanın önde gelen akademik uzmanlarından toplam 25’i. Yazarlar ABD, Çin, AB, İngiltere ve diğer yapay zeka güçlerinden geliyor ve Turing ödülü kazananları, Nobel ödüllüleri ve standart yapay zeka ders kitaplarının yazarlarını içeriyor.

Bu makale, ilk kez bu kadar büyük ve uluslararası bir uzman grubunun, gelişmiş yapay zeka sistemlerinden kaynaklanan risklere ilişkin küresel politika yapıcıların öncelikleri üzerinde anlaşmaya vardığı bir makaledir.

Yapay Zeka Yönetişimi İçin Acil Öncelikler

Yazarlar hükümetlere şunları tavsiye ediyor: Yapay zeka gözetimi için hızlı hareket eden, uzman kurumlar oluşturun ve bunlara neredeyse mevcut herhangi bir politika planı kapsamında alacaklarından çok daha fazla fon sağlayın. Karşılaştırma yapmak gerekirse, ABD Yapay Zeka Güvenliği Enstitüsü’nün şu anda yıllık 10 milyon dolarlık bir bütçesi varken, ABD Gıda ve İlaç İdaresi’nin (FDA) 6,7 milyar dolarlık bir bütçesi var.

Gönüllü veya yeterince belirtilmemiş model değerlendirmelerine dayanmak yerine, uygulanabilir sonuçları olan çok daha sıkı risk değerlendirmelerini zorunlu kılın. Yapay zeka şirketlerinin güvenliğe öncelik vermelerini ve sistemlerinin zarar veremeyeceğini göstermelerini zorunlu kılın. Buna, güvenliği gösterme yükünü yapay zeka geliştiricilerine kaydıran “güvenlik durumlarının” (havacılık gibi diğer güvenlik açısından kritik teknolojiler için kullanılır) kullanılması da dahildir.

Yapay zeka sistemlerinin oluşturduğu risk seviyelerine uygun azaltma standartlarını uygulayın. Acil bir öncelik, yapay zeka belirli yetenek aşamalarına ulaştığında otomatik olarak tetiklenecek politikaların oluşturulmasıdır. Yapay zeka hızla ilerlerse katı gereksinimler otomatik olarak yürürlüğe girer, ancak ilerleme yavaşlarsa gereksinimler buna göre gevşer.

Yazarlara göre, gelecekteki olağanüstü yetenekli yapay zeka sistemleri için hükümetlerin düzenlemede öncülük etmeye hazır olması gerekiyor. Bu, bu sistemlerin geliştirilmesine lisans verilmesini, kilit toplumsal rollerdeki özerkliklerinin kısıtlanmasını, endişe verici yetenekler nedeniyle bunların geliştirilmesinin ve konuşlandırılmasının durdurulmasını, erişim kontrollerinin zorunlu kılınmasını ve yeterli korumalar hazır olana kadar eyalet düzeyindeki bilgisayar korsanlarına karşı dayanıklı bilgi güvenliği önlemlerinin zorunlu kılınmasını içerir.

Yapay Zeka Etkileri Felaket Olabilir

Yapay zeka, bilgisayar korsanlığı, sosyal manipülasyon ve stratejik planlama gibi kritik alanlarda halihazırda hızlı bir ilerleme kaydediyor ve yakında benzeri görülmemiş kontrol zorlukları ortaya çıkarabilir. İstenmeyen hedefleri ilerletmek için yapay zeka sistemleri insanların güvenini kazanabilir, kaynak elde edebilir ve kilit karar vericileri etkileyebilir. İnsan müdahalesini önlemek için algoritmalarını küresel sunucu ağları üzerinden kopyalayabilirler. Büyük ölçekli siber suçlar, sosyal manipülasyon ve diğer zararlar hızla artabilir.

Açık çatışmalarda yapay zeka sistemleri, biyolojik olanlar da dahil olmak üzere çeşitli silahları otonom olarak konuşlandırabilir. Sonuç olarak, kontrolsüz yapay zeka ilerlemesinin büyük ölçekli yaşam ve biyosfer kaybına ve insanlığın marjinalleşmesine veya yok olmasına yol açması ihtimali çok yüksek. Berkeley’deki Kaliforniya Üniversitesi’nde Bilgisayar Bilimleri Profesörü ve yapay zeka üzerine dünyanın standart ders kitabının yazarı Stuart Russell OBE şunları söylüyor:

“Bu, önde gelen uzmanların ortak bir anlaşmasıdır ve gönüllü kodlar değil, hükümetler tarafından sıkı düzenleme yapılmasını gerektirir. endüstri tarafından yazılan davranış kuralları. Gelişmiş yapay zeka sistemleri konusunda ciddileşmenin zamanı geldi. Bunlar oyuncak değil. Onları nasıl güvenli hale getireceğimizi anlamadan yeteneklerini arttırmak tamamen umursamazlıktır. Şirketler düzenlemeleri karşılamanın çok zor olduğundan, “düzenlemelerin yeniliği bastırdığından” şikayet edecekler. Saçma. Sandviç mağazalarında yapay zeka şirketlerine göre daha fazla düzenleme var.”

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu