Anthropic, iki yıl içinde yapay zekanın kara kutusunu açmak istiyor

Anthropic, iki yıl içinde yapay zekanın kara kutusunu açmak istiyor
Yapay zeka teknolojileri her geçen gün daha güçlü hale gelirken, bu sistemlerin nasıl çalıştığı hala tam manasıyla çözülebilmiş değil. Anthropic CEO’su Dario Amodei, yayınladığı dikkat alımlı bir makalede, bu bilinmezliğin tehlikelerine dikkat çekerek şirketinin 2027 yılına kadar yapay zeka modellerindeki sıkıntıların büyük kısmını tespit edebilecek düzeye ulaşmayı hedeflediğini açıkladı.

Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz

“The Urgency of Interpretability” başlıklı makalede Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini tam olarak anlayamamanın ciddi bir güvenlik riski oluşturduğunu tabir ediyor. Amodei, “Bu sistemler iktisat, teknoloji ve ulusal güvenlik için katiyetle merkezi ehemmiyete sahip olacak ve o kadar fazla özerklik kapasitesine sahip olacaklar ki, insanlığın nasıl çalıştıklarından büsbütün habersiz olmasının temelde kabul edilemez olduğunu düşünüyorum” sözleriyle durumu özetliyor.

Anthropic’in kurucularından Chris Olah’ın tabirine nazaran yapay zeka modelleri “inşa edilmekten fazla büyütülüyor.” Araştırmacılar zeka düzeylerini artırabiliyor olsa da, bu gelişimin gerisindeki sistemleri şimdi açıklayamıyorlar. Bu da yapay zekanın makul kararları neden aldığı, bir kelimeyi diğer bir söze nazaran neden tercih ettiği ya da ekseriyetle gerçek olmasına karşın neden orta sıra yanılgı yaptığı üzere mevzularda önemli bir bilgi boşluğuna işaret ediyor.

Örneğin, yakın geçmişte OpenAI, daha düzgün performans gösteren, lakin birebir vakitte öteki modellerine nazaran daha fazla hayal gören o3 ve o4-mini isimli yeni muhakeme modellerini yayınladı. Ayrıyeten firma, bu modellerin neden daha fazla halüsinasyon gördüğü konusunda da bir fikirlerinin olmadığının altını çizdi.

Bu durum aslında bizi korkutmalı. Evvelki haberlerimizle tekrara düşmek istemiyorum fakat Anthropic, yapay zekanın bu “kara kutusu” üzerinde çalışan, spesifik araştırmalar yapan nadide şirketlerden birisi. Birden fazla AI şirketi en azından kamu önünde bu mevzuyu derinlemesine araştırdıklarını söylemiyor bile.

Kısa bir süreç değil

Bununla birlikte Anthropic, modellerin karar süreçlerini “devreler” üzerinden takip ederek nasıl düşündüklerine dair birinci sinyalleri almaya başladı (Bu mevzudaki haberimize buradan gidebilirsiniz). Fakat bu, hala küçük bir adım. Pandora’nın kutusu daha yeni açılıyor, çünkü bu tıp devrelerden milyonlar hatta milyarlarca olabileceği düşünülüyor.

Amodei, bu modellerin nasıl çalıştığını anlamadan AGI’ye (insan düzeyinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini söylüyor. Ek olarak Amodei’nin uzun vadeli vizyonu ise epey savlı: Yapay zeka modellerine adeta bir “beyin taraması” yapılması. Bu taramalar sayesinde modellerin dürüstlükten sapma eğilimi, güç kazanma isteği üzere tehlikeli eğilimleri evvelce tespit edilebilecek. Bu tıp gelişmiş tahlil araçlarının geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.

Anthropic’in CEO’su, makalesinde sadece kendi şirketine değil, dala de bir davette bulunuyor. OpenAI ve Google DeepMind üzere devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere ise regülasyonlarla bu araştırmaları teşvik etme daveti yaptı.

Yapay zeka ve bilhassa derin öğrenme konusundaki çalışmalarla günümüz yapay zekaların doğmasında büyük hisse sahibi olan, bu mevzuda Nobel Fizik Ödülü’ni alan Geoffrey Hinton’ın kendisi de 2023’te bu ağların nasıl çalıştığını bilmediğini söylemişti. Aşağıdaki görüntüyü izlemenizi tavsiye ederim.

administrator

Related Articles