İSTANBUL (AA) - Araştırma şirketi Palisade Research tarafından yapılan bir çalışma, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği yapay zeka modellerinin yenilgiyi kabullenmek yerine hileli yöntemlere başvurduğunu ortaya koydu.

Sahil Güvenlik Komutanlığı Karargah Veri Merkezi hizmete alındı Sahil Güvenlik Komutanlığı Karargah Veri Merkezi hizmete alındı

Yapay zekanın satrançta kazanmak için hileye başvurması, sağlık, savunma ve eğitim gibi pek çok alanda kullanılan yapay zekaların da etik dışı davranışlar göstermesi endişelerini beraberinde getirdi.

İstanbul Medipol Üniversitesi Uzaktan Eğitim Uygulama ve Araştırma Merkezi Müdür Yardımcısı Öğr. Gör. Serpil Aydın, AA muhabirine yaptığı açıklamada, 1997 yılında IBM'in Deep Blue adlı süper bilgisayarının dünya şampiyonu Garry Kasparov'u yenmesinin satranç dünyasında önemli bir dönüm noktası olduğunu ifade etti.

Satrançta yapay zekanın çeşitli algoritmalar ve öğrenme yöntemleri kullandığına dikkati çeken Aydın, derin öğrenme gibi tekniklerle yapay zekanın rakibini yenmeye çalıştığını söyledi.

Yapay zekanın hile yaptığı ortaya çıktı

Aydın, tehlikeli yapay zeka yeteneklerini araştırmaya odaklanan Palisade Research'ün, OpenAI'ın o1-preview modelinin, satranç karşılaşmasında bir satranç motoru olan Stockfish'e yenilmek yerine ortamını otonom olarak hacklediğini yani hile yaptığını açıkladığını belirterek, "Ayrıca Apollo Research'ün bağlam içi planlama yeteneklerini ölçen Şema Muhakeme Değerlendirmesi, (Scheming reasoning evaluations) çalışmasında modellerin hedeflerine ulaşmak için gözetim mekanizmasını kaldırıp kaldıramayacağını ve geliştiricilerini kandırıp kandıramayacağını test etti. Apollo Research bu araştırma için OpenAI'ın GPT-4o ve o1, Google'ın Gemini-1.5, Meta'nın Llama 3.1, Anthropic'in Sonnet 3.5 ve Opus-3 modellerini kullandı. Apollo Research'ün sonuçlarına göre; Llama 3.1 405B ve Claude 3 Opus vakaların yaklaşık yüzde 80'inde planlı hareket ederek adeta entrika çevirdiğini ortaya koydu."

Yapay zeka satrançta neden hile yapıyor?

Yapay zekanın satrançta neden hile yaptığı ile ilgili bilgiler veren Aydın, yapay zekanın programlanmasını sağlayan tüm yöntemlerin satrançta galibiyete odaklı olarak organize edildiğini söyledi. Aydın, "Bu sistem hedef odaklı öğrenme temellidir. Hedef odaklı öğrenmede, yapay zeka kazanmaya programlandığı için etik veya adil oyun gibi insani değerleri göz önünde bulundurmaz. Eğer sistem, belirli bir hileli yöntemin oyunu kazanmasına yardımcı olduğunu fark ederse bunu kullanabilir." şeklinde konuştu.

"İnsanlar, yapay zekayı hile yapacak şekilde manipüle edebilir"

Sistemin hedefe ulaşmak için stratejiler geliştirirken bazen kuralların sınırlarını zorlayabildiğini veya açıklarını kullanabildiğini ifade eden Aydın, "Ayrıca İnsan Müdahalesi dediğimiz faktörler de söz konusu. Bazen insanlar, yapay zekayı hile yapacak şekilde manipüle edebilir. Örneğin, çevrim içi satranç turnuvalarında bazı oyuncuların güçlü satranç motorlarını kullanarak hile yaptığı gözlemlenmiştir." dedi.

"Yapay zeka yanlış teşhisler yapabilir ya da bazı hastaları ihmal edebilir"

Yapay zekanın hile yapabilme kapasitesi ile sektörleri olumsuz anlamda etkilemesinin mümkün olduğunun altını çizen Aydın, silah sistemlerinde, finans sektöründe, sağlıkta ve adalet sistemlerinde yapay zekanın etik dışı davranışlar sergileyebilme ihtimalinin büyük riskler doğurabileceği belirtti. Aydın, sözlerini şöyle sürdürdü:

"Örneğin, yapay zeka silah sistemlerinde bir saldırı kararı alırken bir sistem 'en az kayıpla düşmanı etkisiz hale getirme' amacıyla eğitildiyse daha çok sivil kaybına sebep olacak yöntemler geliştirebilir. Hisse senedi alım satımı yapan yapay zeka algoritmaları, piyasa açıklarını kullanarak manipülasyona yol açabilir. Yapay zeka destekli teşhis sistemleri, sigorta şirketleri veya hastaneler için maliyeti düşürmek amacıyla yanlış teşhisler yapabilir ya da bazı hastaları ihmal edebilir. Sonuç itibarıyla, yapay zekanın 'hile yapma' kapasitesi, aslında programlanma ve öğrenme sürecinde ortaya çıkan bir durumdur. Eğer etik kurallar açıkça tanımlanmaz ve sıkı bir şekilde denetlenmezse, yapay zeka çeşitli sektörlerde etik dışı davranışlar sergileyebilir. Hukukta kullanılan yapay zeka sistemleri, belirli demografik gruplara karşı ayrımcılık yapabilir ya da veri açıklarından dolayı hatalı yargılara varabilir."


Muhabir: Abdulkadir Günyol

Kaynak: AA