Savunma Bakanlığı, teknoloji müteahhitleri için AI etik yönergeleri yayınlıyor

0
16

[ad_1]

Yönergelerin amacı, teknoloji müteahhitlerinin Savunma Bakanlığı’nın mevcut kurallarına bağlı kalmasını sağlamaktır. AI için etik ilkeler, diyor Goodman. Savunma Bakanlığı, 2016 yılında Silikon Vadisi’nin kıvılcımını ABD ordusuna getirmek için kurulan önde gelen teknoloji araştırmacıları ve iş adamlarından oluşan bir danışma paneli olan Savunma İnovasyon Kurulu tarafından yaptırılan iki yıllık bir çalışmanın ardından bu ilkeleri geçen yıl duyurdu. Kurula Eylül 2020’ye kadar eski Google CEO’su Eric Schmidt başkanlık etti ve şu anki üyeleri arasında MIT’nin Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı direktörü Daniela Rus yer alıyor.

Yine de bazı eleştirmenler, çalışmanın anlamlı bir reform vaat edip etmediğini sorguluyor.

Çalışma sırasında kurul, Katil Robotlar Kampanyası üyeleri ve Maven Projesi protestolarının düzenlenmesine yardımcı olan eski bir Google araştırmacısı olan Meredith Whittaker gibi ordunun yapay zeka kullanımını sert biçimde eleştirenler de dahil olmak üzere bir dizi uzmana danıştı.

Şu anda New York Üniversitesi’nin AI Now Enstitüsü’nde fakülte direktörü olan Whittaker, yorum yapmak için müsait değildi. Ancak enstitü sözcüsü Courtney Holsworth’a göre, bir toplantıya katıldı ve burada Schmidt de dahil olmak üzere yönetim kurulunun üst düzey üyeleriyle aldığı yön hakkında tartıştı. Holsworth, “Ona hiçbir zaman anlamlı bir şekilde danışılmadı” diyor. “Uzun bir sürecin küçük bir bölümünde muhalif seslerin varlığının, belirli bir sonucun ilgili paydaşlardan geniş çapta kabul gördüğünü iddia etmek için kullanıldığı bir etik yıkama biçimi olarak okunabileceğini iddia etmek.”

Savunma Bakanlığı’nın geniş katılımı yoksa, yönergeleri yine de güven oluşturmaya yardımcı olabilir mi? Goodman, “DoD’un ürettiği herhangi bir etik kurallar dizisinden asla tatmin olmayacak insanlar olacak çünkü bu fikri paradoksal buluyorlar” diyor. “Kılavuzların neler yapabileceği ve yapamayacağı konusunda gerçekçi olmak önemlidir.”

Örneğin, kılavuz ilkeler, bazı kampanyacıların yasaklanması gerektiğini savunduğu bir teknoloji olan ölümcül otonom silahların kullanımı hakkında hiçbir şey söylemiyor. Ancak Goodman, bu tür teknolojileri yöneten düzenlemelerin zincirin daha yukarılarına karar verildiğine dikkat çekiyor. Yönergelerin amacı, bu düzenlemelere uygun yapay zeka oluşturmayı kolaylaştırmaktır. Ve bu sürecin bir parçası, üçüncü taraf geliştiricilerin sahip olduğu endişeleri açıkça ortaya koymaktır. DIU’dan Jared Dunnmon, “Bu yönergelerin geçerli bir uygulaması, belirli bir sistemi takip etmemeye karar vermektir” diyor. “Bunun iyi bir fikir olmadığına karar verebilirsiniz.”

[ad_2]

Source link

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz