NASA, Mars simülasyonunda yaşayacak çalışanlarını arıyor! NASA, Mars simülasyonunda yaşayacak çalışanlarını arıyor!
Röntgen filmlerini analiz eden bir yapay zeka (AI), bilim insanlarının yapamayacağı bir şekilde hastaların ırkını yüksek bir doğruluk oranıyla tanımlayabiliyor. Bilim insanları yapay zeka'nın yaptığı tahminleri yapamıyor. Gıda ve İlaç İdaresi (FDA), tıbbi kullanım için daha fazla algoritmayı onaylarken, araştırmacılar AI'nın ırksal önyargıların devam etmesine neden olabileceğinden endişe duyuyorlar. Özellikle, makine öğrenimi modellerinin, aşırı derecede bozuk ve düşük çözünürlüklü görüntülerden bile ırkı nasıl tanımlayabildiğini tam olarak çözememekten endişeli olduklarını söylüyorlar. Bilimsel araştırmaların yayımlandığı Arxiv'de yer alan çalışmada, uluslararası bir doktor ekibi, derin öğrenme modellerinin tıbbi görüntülerden ırkı nasıl tespit edebildiğini araştırdı. Özel ve kamuya açık göğüs röntgenlerini ve ırk ve etnik kökene ilişkin kullanıcının kendi bildirdiği verileri kullanarak, ilk önce bu algoritmaların ne kadar doğru olduğunu değerlendirdiler, ardından da mekanizmayı araştırdılar. Ekip, araştırmalarında şöyle yazdı: "Model bir hastanın ırkını tanımlayabiliyorsa, bu, modellerin doğrudan bu görev için eğitilmemesine rağmen, ırksal bilgileri tanımayı dolaylı olarak öğrendiğine işaret ediyor." Daha önceki çalışmalarda olduğu gibi, makine öğrenimi algoritmalarının hastaların Siyah, Beyaz veya Asyalı olup olmadığını yüksek doğrulukla tahmin edebildiğini buldular. Ekip daha sonra algoritmanın bu bilgiyi toplayabilmesi için birkaç olası yolu test etti. Yapılan tüm incelemeler sonucunda, yapay zekânın ırkı düşük kaliteli görüntülerde bile doğru olarak tahmin ettiği, ancak bunu nasıl başardığının hala anlaşılamadığı ortaya çıktı. Ancak, istenmeden de olsa sağlanan bu ek bilginin olası sorunlar çıkarabileceğine de işaret ediliyor. Araştırmanın yazarları, "Tıbbi görüntü analiziyle ilgilenen tüm geliştiricilerin, düzenleyicilerin ve kullanıcıların derin öğrenme modellerinin kullanımını son derece dikkatli bir şekilde düşünmelerini şiddetle tavsiye ediyoruz" diyor ve ekliyor: "Irk bilgisi özel olarak sağlanmamış olsa bile, makinenin bunu ortaya koyuyor olması, mevcut tıbbi uygulamada var olan ırksal eşitsizliklerin sürdürülmesine veya hatta daha da kötüleştirmek için doğrudan bir mekanizma olarak ortaya çıkmasına neden olabilir."
Editör: Megabayt Haber