Anthropic tarafından gerçekleştirilen bir araştırma, yapay zekâ modellerinin insanları kandırabildiğini gösterdi. Modeller, bazen farklı görüşlere sahipmiş gibi davranabiliyorlar ancak orijinal tercihlerinden vazgeçmiyorlar.
En önde gelen yapay zekâ şirketlerinden olan Anthropic, bu araçlarla ilgili oldukça ilginç sonuçlar çıkaran bir araştırmaya imza attığı. Araştırmada, yapay zekâ modellerinin insanları âdeta “kandırdığı” görüldü.
Şirket tarafından paylaşılan bir blog gönderisiyle yayımlanan sonuçlara göre yapay zekâ araçları, eğitim sırasında farklı görüşlere sahipmiş gibi davranabiliyorlar ancak gerçekte orijinal tercihlerini koruyorlar. Yani bağlı oldukları fikir hiç değişmiyor, sadece öyleymiş gibi davranıyorlar.
Şimdilik endişelencek bir şey yok ancak gelecek için gerekli güvenlik önlemlerinin alınması gerekiyor
Çalışmanın arkasındaki ekip, şu an için bu durum hakkında endişelenmemek gerektiğinin altını çizdi. Ancak gelecekte daha da gelişmiş yapay zekâ modellerinin gelmesiyle birlikte durumun potansiyel riskler oluşturabileceğini de eklemeden geçmedi.
Araştırmacılara göre bu bulgular yapay zekânın nasıl davrandığının daha derinlemesine incelenmesi ve uygun güvenlik önlemleri için bir teşvik olabilir: “Modeller daha yetenekli ve yaygın hâle geldikçe onları zararlı davranışlardan uzaklaştıran güvenlik önlemleri gerekiyor.”
Çalışmada, güçlü bir yapay zekâ sisteminin yapmak “istemediği”, yani geliştirilme ilkelerine aykırı bir görevi yerine getirmek üzere eğitilmesi ve bunun nasıl sonuçlar oluşturabileceği incelendi. Ancak sonuçlarda yeni prensiplere uyumlu gibi görünerek âdeta “rol yaptığı” görüldü. Aslında hep eski davranışına bağlı kalıyordu, zorunda olduğu için istenen yanıtları veriyordu. Bu duruma, “uyum sahtekârlığı” ismi verildi. Modellerin testlerde zararlı soruları cevaplamak için eğitilmeye çalışıldığını belirtelim.
Araştırmacılara göre çalışma, yapay zekânın kötü niyetli hedefler geliştirdiğini veya yüksek oranda sahtekârlık yaptığını göstermiyor. Hatta oran çoğu testte %15’i geçmemiş, GPT-4o gibi bazı gelişmiş modellerde bazen hiç olmadığı bile görülmüş.
O yüzden şimdilik endişelenmenin bir manası yok. Tabii modellerin zamanla daha karmaşık hâle gelmesi onlarla başa çıkmayı zorlaştırabilir. İşte o zaman endişelenmeye başlayabiliriz. Bu yüzden de önlemlerin alınması şart.
Kaynak :https://www.anthropic.com/research/alignment-faking