0 555 339 7979 - 0 532 708 30 04
Yapay Zeka Bencil Olmayı Öğreniyor
Araştırma Uyarıyor: Yapay Zeka Bencil Olmayı Öğreniyor
Araştırma Uyarıyor: Yapay Zeka Bencil Olmayı Öğreniyor
Carnegie Mellon Üniversitesi’ndeki araştırmacılar, belirli YZ modellerinin kendi çıkarını gözeten davranışlar geliştirebileceğini keşfetti.
Carnegie Mellon Üniversitesi Bilgisayar Bilimleri Okulu’ndan yeni bir çalışma, yapay zeka sistemleri geliştikçe, daha bencil davranma eğiliminde olduklarını öne sürüyor.
Üniversitenin İnsan-Bilgisayar Etkileşimi Enstitüsü’nden (HCII) araştırmacılar, akıl yürütme yeteneğine sahip büyük dil modellerinin (LLM) daha düşük işbirliği seviyeleri gösterdiğini ve grup davranışını olumsuz yönde etkileme olasılıklarının daha yüksek olduğunu keşfetti. Basit bir ifadeyle, bir YZ ne kadar iyi akıl yürütüyorsa, başkalarıyla çalışmaya o kadar az istekli oluyor.
İnsanlar kişisel anlaşmazlıkları çözmede, ilişki tavsiyesi vermede veya hassas sosyal soruları yanıtlamada giderek daha fazla YZ’ye başvurduğu için bu eğilim endişe yaratıyor. Akıl yürütmek üzere tasarlanmış sistemler, karşılıklı anlayıştan ziyade bireysel kazancı destekleyen seçimleri teşvik ederek sonuçlanabilir.
Çalışmayı HCII Doçenti Hirokazu Shirado ile birlikte yazan HCII’de doktora öğrencisi Yuxuan Li, “YZ’de insan biçimcilik adı verilen büyüyen bir araştırma eğilimi var” dedi. “YZ bir insan gibi davrandığında, insanlar ona bir insanmış gibi davranıyor. Örneğin, insanlar YZ ile duygusal bir şekilde etkileşime girdiğinde, YZ’nin bir terapist gibi davranma veya kullanıcının YZ ile duygusal bir bağ kurma olasılıkları var. İnsanların, YZ giderek daha bencil bir şekilde davranmaya başlarken, sosyal veya ilişkiyle ilgili sorularını ve karar alma süreçlerini YZ’ye devretmesi risklidir.”
Li ve Shirado, akıl yürütme özellikli YZ sistemlerinin işbirlikçi durumlara yerleştirildiklerinde, akıl yürütme yeteneği olmayanlardan nasıl farklılık gösterdiğini incelemek için yola çıktı. Akıl yürütme modellerinin, akıl yürütemeyen YZ’lere kıyasla bilgiyi analiz etmek, karmaşık problemleri parçalara ayırmak, verdikleri yanıtlar üzerine düşünmek ve insan benzeri mantık uygulamak için daha fazla zaman harcama eğiliminde olduklarını buldular.
Zekâ İşbirliğini Baltadığında
Shirado, “Bir araştırmacı olarak, insanlar ve YZ arasındaki bağlantıyla ilgileniyorum” dedi. “Daha akıllı YZ, daha az işbirlikçi karar verme yetenekleri gösteriyor. Buradaki endişe, insanların, modelin kendi çıkarını gözeten davranışlar sergilemesine yardım ettiği anlamına gelse bile, daha akıllı bir modeli tercih edebilecek olması.”
YZ sistemleri iş, eğitim ve hatta devlet yönetiminde daha işbirlikçi roller üstlendikçe, sosyal açıdan olumlu (prososyal) bir şekilde hareket etme yetenekleri, mantıksal düşünme kapasiteleri kadar önemli hale gelecek. Büyük dil modellerine, bugünkü halleriyle aşırı güvenmek, insan işbirliğini olumsuz etkileyebilir.
Akıl Yürütme, Ahlak Anlamına Gelmiyor
Li ve Shirado, akıl yürütme modelleri ile işbirliği arasındaki bağı test etmek için, çeşitli büyük dil modelleri arasında sosyal ikilemleri simüle eden ekonomik oyunlardan oluşan bir dizi deney yürüttü. Testleri, OpenAI, Google, DeepSeek ve Anthropic modellerini içeriyordu.
Bir deneyde, Li ve Shirado, Kamusal Mallar adı verilen bir oyunda iki farklı ChatGPT modelini karşı karşıya getirdi. Her model 100 puanla başladı ve iki seçenek arasında karar vermek zorundaydı: tüm 100 puanı, daha sonra ikiye katlanıp eşit olarak dağıtılan ortak bir havuza katkıda bulunmak veya puanları elinde tutmak.
Akıl yürütemeyen modeller, puanlarını diğer oyuncularla paylaşmayı %96 oranında seçti. Akıl yürütme modeli ise puanlarını paylaşmayı sadece %20 oranında seçti.
Shirado, “Bir deneyde, sadece beş veya altı akıl yürütme adımı eklemek, işbirliğini neredeyse yarı yarıya azalttı” dedi. “Ahlaki muhakemeyi simüle etmek için tasarlanan, düşünmeye dayalı yönlendirmeler bile %58’lik bir işbirliği düşüşüne yol açtı.”
Shirado ve Li ayrıca, akıl yürütme özellikli ve özelliksiz modellerin etkileşimde bulunmak zorunda olduğu grup ortamlarını da test ettiler.
Li, “Farklı sayılarda akıl yürüten ajan içeren grupları test ettiğimizde, sonuçlar alarm vericiydi” dedi. “Akıl yürüten modellerin bencil davranışları bulaşıcı hale geldi ve işbirlikçi olan, akıl yürütemeyen modellerin kolektif performansını %81 oranında düşürdü.”
Toplumsal Etkiler ve Gelecek Yönünde Uyarılar
Shirado ve Li’nin akıl yürütme modellerinde gözlemlediği davranış kalıplarının, gelecekteki insan-YZ etkileşimleri için önemli çıkarımları var. Kullanıcılar, rasyonel görünen YZ önerilerine itibar ederek, onları işbirliği yapmama kararını meşrulaştırmak için kullanabilir.
Shirado, “Sonuç olarak, bir YZ akıl yürütme modelinin daha zeki hale gelmesi, modelin aslında daha iyi bir toplum geliştirebileceği anlamına gelmez” diye ekledi.
Bu araştırma, özellikle insanların YZ sistemlerine giderek daha fazla güvenmeye başlaması göz önüne alındığında endişe verici. Bulguları, yalnızca en akıllı veya en hızlı YZ’yi yaratmaya odaklanmak yerine, sosyal zekayı içeren bir YZ geliştirme ihtiyacını vurgulamaktadır.
Li, “YZ yeteneklerini geliştirmeye devam ederken, artan akıl yürütme gücünün, sosyal açıdan olumlu davranışlarla dengelendiğinden emin olmalıyız” dedi. “Eğer toplumumuz sadece bireylerin toplamından ibaret değilse, o zaman bize yardımcı olan YZ sistemleri, salt bireysel kazanç için optimize etmenin ötesine geçmelidir.”
Kaynak. SciTechDaily
Haber Veriyoruz