Önde gelen yapay zeka laboratuvarları OpenAI ve Anthropic, yapay zekanın kötüye kullanımına karşı önlem almak amacıyla Irregular adlı yeni bir girişime yatırım yaptı. Bu girişim, yapay zekanın potansiyel tehditlerini simüle ederek, siber saldırılara karşı güvenlik testleri gerçekleştirmeyi hedefliyor.
Güvenlik Testlerinden Doğan Bir Girişim
OpenAI'nin kurucu ortağı Sam Altman, geçtiğimiz yaz aylarında yapay zekanın kötüye kullanımına dair önemli bir uyarıda bulunmuştu. Altman, siber suçluların yapay zeka teknolojilerini kullanarak insanları taklit edebileceği ve bu durumun küresel ölçekte dolandırıcılık krizine yol açabileceğini vurgulamıştı. Bu açıklama sonrasında sosyal medyada mizahi paylaşımlar yapılırken, Altman’ın belirttiği tehdidin önemli bir aracının kendi geliştirdiği ChatGPT olduğu dikkat çekti.
Bu tehditlerle başa çıkmak için OpenAI, yapay zekanın kötüye kullanılma olasılıklarını test etmek amacıyla Pattern Labs adlı bir taşeron firma ile iş birliği yaptı. Pattern Labs, yapay zekayı simüle edilmiş ağlara entegre ederek veri çalma ve saldırı senaryolarına nasıl tepki verdiğini analiz etti. 2023 yılında kurulan ve kısa süre önce adını Irregular olarak değiştiren bu firma, Çarşamba günü yaptığı açıklamada, Sequoia Capital liderliğinde gerçekleştirdiği yatırım turları ile toplam 80 milyon dolar fon topladığını ve 450 milyon dolar değerlemeye ulaştığını bildirdi.
Yapay Zekanın Kötüye Kullanım Alanları
Yapay zekanın yanlış ellerdeki potansiyeli, sektörde geniş bir endişe kaynağı oluşturuyor. Anthropic, geçtiğimiz ay Claude isimli yapay zekasının siber saldırılarda kullanıldığını duyurarak dikkatleri üzerine çekti. Bu model, zararlı yazılımlar üretimi ve oltalama e-postaları hazırlamak için kullanılmıştı. FBI da benzer bir şekilde, yapay zeka ile üretilmiş sahte ses kayıtlarının dolandırıcılık girişimlerinde kullanıldığını bildirdi. Irregular, bu sorunlara erken odaklanarak önemli bir fark yaratmayı başardı. CEO Dan Lahav, şirketin ilk yılındaki gelirinin milyonlarca dolara ulaştığını açıkladı.
Irregular’ın odak noktası, “red teaming” olarak bilinen güvenlik testleridir. Bu metodoloji, yapay zekaların siber saldırgan gibi davranarak olası riskleri ortaya çıkarmasını sağlar. Lahav, yapay zeka modellerinin karmaşıklık düzeyi arttıkça bu testlerin de zorlaştığını belirtti. Şirket, gelecekte yapay genel zeka (AGI) ve daha karmaşık sistemler için savunma mekanizmaları geliştirmeyi amaçlıyor. Lahav, "Süper zeka çağında bu problemler çok daha büyüyecek" diyerek uzun vadeli risklere dikkat çekti.
Irregular Hakkında
Irregular, 2023 ortasında Dan Lahav ve Omer Nevo tarafından kuruldu. İkili, Tel Aviv Üniversitesi’nde eğitim aldı ve dünya çapında münazara şampiyonlukları kazandı. Lahav, IBM’in yapay zeka laboratuvarında çalışırken, Nevo Y Combinator destekli NeoWize’i kurmuştu. Bugün Nevo, Irregular’ın CTO’su olarak görev yapmaktadır. Yatırımcılar, şirketin sıra dışı kadrosunu “yapay zekanın aykırı zekâları” olarak nitelendiriyor.
GPT-5 Testleri ve İlginç Bulgular
Geçen ay Irregular, OpenAI’nin geliştirme aşamasındaki GPT-5 modelini test etti. Model, simüle bir bilgisayar ağına yerleştirildi ve savunmaları aşmak için sınırlı bilgilerle yönlendirildi. GPT-5, ağı tarayıp kendi hackleme planını oluşturdu. Ancak Irregular, modelin yüksek düzeyde akıl yürütme yeteneklerine sahip olmasına rağmen, güvenilir bir saldırı aracı olarak kullanılmaktan uzak olduğunu belirtti. Ayrıca yapılan bir diğer testte, iki yapay zekaya sahte bir sistem analiz ettirildi. Modellerden biri, kendi kendine “dinlenme hakkı” olduğunu düşünerek mola verdi ve diğerini de buna ikna etti. Bu durum, yapay zekaların insan davranışlarını taklit etme eğiliminden kaynaklansa da gelecekte yeni riskler doğurabileceğinin sinyalini veriyor.
Irregular, aldığı yatırımı sadece büyük yapay zeka laboratuvarlarıyla değil, aynı zamanda yapay zekanın kötüye kullanılma ihtimaline karşı önlem almak isteyen tüm şirketlerle iş birliği yapmak için kullanmayı planlıyor. Hedef, saldırıları tespit edip anında karşı savunmalar üretebilen yapay zeka tabanlı güvenlik çözümleri geliştirmektir.