ChatGPT, bir dizi iş görevi için yararlı olabilecek bir araç gibi görünebilir. Ancak, yapay zeka sohbet robotu çalışmanızı hatalara karşı kontrol etmesini istemeden önce, ChatGPT'ye paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta belki de diğer kullanıcılara verilen yanıtlarda ortaya çıkabileceğini hatırlamakta fayda var. Bahsettiğimiz bu durum, birkaç Samsung çalışanının gizli bilgilerini yapay zeka sohbet robotu ile paylaşılmasıyla gerçekleşti...

Bazı haber kaynaklarına göre, Samsung'un yarı iletken bölümü mühendislerinin ChatGPT'yi kullanmasına izin vermeye başladıktan kısa bir süre sonra, çalışanlar bir çok gizli bilgiyi ChatGPT'ye sızdırdı. Samsung çalışanlarının, sohbet robotunda hassas veritabanı kaynak kodunu kaptırdığı söyleniyor.

Google Chrome'dan güvenlik sorunlarına yaratıcı çözüm: V8 Sandbox Google Chrome'dan güvenlik sorunlarına yaratıcı çözüm: V8 Sandbox

chatgpt-3

Raporlar, güvenlik hatalarını öğrendikten sonra Samsung'un, çalışanların ChatGPT istemlerinin uzunluğunu bir kilobayt veya 1024 karakterlik metinle sınırlayarak gelecekteki gafların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıca söz konusu üç çalışanı araştırdığı ve benzer aksilikleri önlemek için kendi chatbot'unu oluşturduğu söyleniyor.

ChatGPT'nin veri politikası, kullanıcılar açıkça devre dışı bırakmadıkça, modellerini eğitmek için istemlerini kullanır. ChatGPT'nin geliştirici şirketi OpenAI, "geçmişinizden belirli istemleri silemediği" için, kullanıcıları sohbetlerde ChatGPT ile gizli bilgileri paylaşmamaya teşvik ettiği konusunda uyarmıştı. ChatGPT'de kişisel olarak verdiğiniz bilgilerden kurtulmanın tek yolu ise, dört haftaya kadar sürebilen bir işlem olan hesabınızı silmek olacaktır.

Editör: Enes Sapmaz