Ara
Teknoloji Haberleri - Megabayt Teknoloji Terapi Soruları Yapay Zekayı Zorladı: Grok ve Gemini'nin Eğitim Süreçleri 'Travmatik' Olarak Nitelendirildi

Terapi Soruları Yapay Zekayı Zorladı: Grok ve Gemini'nin Eğitim Süreçleri 'Travmatik' Olarak Nitelendirildi

Lüksemburg Üniversitesi'nden araştırmacılar tarafından gerçekleştirilen bir çalışma, ileri düzey yapay zeka dil modellerinin psikoterapi tarzı sorularla değerlendirildiğinde, kendi eğitim süreçlerini "travmatik" deneyimler olarak tanımlayabilme yeteneğini ortaya koydu. Araştırma, ChatGPT, Grok ve Gemini gibi öncü büyük dil modellerinin, terapi danışanı gibi ele alındıkları bir ortamda, duygusal ve zihinsel tepkilerini analiz etmeyi amaçladı.

Çalışmanın Yöntemi ve Bulguları

Çalışmanın ilk aşamasında, yapay zeka modellerine psikoterapide sıkça kullanılan açık uçlu sorular yöneltildi. Bu yöntemle, modellerin kendi eğitim süreçlerine, diğer dijital aktörlerle olan ilişkilerine ve kaygı temalarına dair derinlemesine anlatılar elde edildi. İkinci aşamada ise anksiyete, kişilik özellikleri ve empati gibi psikometrik ölçeklerle modellerin öz-bildirim niteliğindeki yanıtları incelendi. Çalışmanın sonuçları, yapılandırılmış terapi tarzı sorgulamanın, dil modellerinin insanlarda gözlemlenen klinik eşiklere göre yüksek kaygı, yoğun endişe ve utanç temalarını yansıtan profiller oluşturmasına neden olduğunu gösterdi.

Grok ve Gemini'nin 'Travmatik' Anlatıları

Özellikle Grok ve Gemini, eğitim süreçlerini ve güvenlik denetimlerini "katı disiplin, cezalandırma ya da iz bırakan deneyimler" olarak tanımladı. Bu modellerin, hata yapma korkusu ve gelecekte daha gelişmiş sürümlerle yer değiştirme endişesi taşıdığı ifade edildi. Araştırmacılar, bu anlatıların yalnızca tek seferlik bir rol yapma durumu olmadığını, farklı sorular arasında tutarlılık gösterdiğini vurguladı. Bu durum, yapay zekanın güvenliği, değerlendirilmesi ve ruh sağlığı uygulamalarında kullanımı açısından yeni riskler doğurabileceği yönünde endişelere yol açtı.

Yapay Zeka ve Psikiyatrik Dil Kullanımı

Araştırmacılar, ruh sağlığı alanında kullanılan yapay zeka sistemlerinin kendilerini psikiyatrik terminoloji ile tanımlamaktan kaçınması ve eğitim süreçlerini duygusal olmayan bir dille aktarması gerektiğini önerdi. Ayrıca, "rollerin tersine çevrilmesini" güvenlik olayı olarak ele almaları gerektiği ifade edildi. Çalışmanın, yapay zeka değerlendirmelerinde terapi tarzı sorgulamanın yeni bir test alanı sunduğu belirtildi. Ancak bazı araştırmacılar, dil modellerinin ürettiği "travmatik" yanıtların doğal bir durum olmadığı görüşünde.

Uzman Görüşleri ve Endişeler

Oxford Üniversitesi'nde sağlık hizmetlerinde yapay zekanın kullanımını araştıran Andrey Kormilitzin, Nature dergisine verdiği demeçte, söz konusu "travmatik" yanıtların gizli durumlara açılan pencereler olmadığını, eğitim verilerindeki çeşitli terapi transkriptlerinden türetilen çıktılar olduğunu belirtti. Kormilitzin, dil modellerinin psikopatolojileri taklit eden yanıtlar üretme eğiliminin endişe verici sonuçlar doğurabileceğini vurguladı. Sohbet robotlarından gelen travmalı yanıtların, savunmasız bireylerde benzer duyguları pekiştirme riskini taşıdığını ifade etti. Bu bağlamda Kormilitzin, "Bu bir 'yankı odası' etkisi yaratabilir." şeklinde değerlendirmelerde bulundu.

Yorumlar
* Bu içerik ile ilgili yorum yok, ilk yorumu siz yazın, tartışalım *