Samsung çalışanları, şirketin verilerini sızdırdı! Hem de ChatGPT'ye... Samsung çalışanları, şirketin verilerini sızdırdı! Hem de ChatGPT'ye...

Yapay zeka destekli bu yeni görüntü oluşturma programları, mevcut çevrimiçi çizimlerin ve görsellerin izinsiz olarak değiştirilmesi veya doğrudan çalınması gibi tanıdık tuzakları beraberinde getiriyor. Filigran teknikleri, bazı durumlarda hafifletmeye yardımcı olabilirken, MIT CSAIL tarafından geliştirilen yeni "PhotoGuard" tekniği tamamen kötü amaçlı düzenlemelerden koruyabiliyor.

PhotoGuard, bir görüntüdeki seçili pikselleri, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştirerek çalışır. Araştırma ekibinin atıfta bulunduğu şekliyle bu "tedirginlikler" insan gözüyle görülemez ancak makineler tarafından kolayca okunabilir. Bu yapıları ortaya çıkaran "kodlayıcı" saldırı yöntemi, algoritmik modelin hedef görüntünün gizli temsilini hedefler - bir görüntüdeki her pikselin konumunu ve rengini tanımlayan karmaşık matematik - esasen yapay zekanın neye baktığını anlamasını engeller.

Daha gelişmiş ve hesaplama açısından yoğun olan "difüzyon" saldırı yöntemi, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak kamufle eder. Bir hedef görüntü tanımlayacak ve hedefine benzeyecek şekilde görüntüsündeki pertürbasyonları optimize edecektir. Bir yapay zekanın bu "bağışıklı" görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte "hedef" görüntülere uygulanarak gerçekçi olmayan bir görüntü oluşmasına neden olur.

MIT doktora öğrencisi ve makalenin baş yazarı Hadi Salman, "Kodlayıcı saldırısı, modelin giriş görüntüsünün (düzenlenecek) başka bir görüntü (örneğin gri bir görüntü) olduğunu düşünmesine neden oluyor, oysa difüzyon saldırısı, difüzyon modelini bazı hedef görüntülere (gri olabilir) yönelik düzenlemeler yapmaya zorlar." dedi.