Twitter araştırmayı nasıl doğru yaptı?

0
27

[ad_1]

Büyük teknoloji şirketlerindeki araştırmacılar için mutlu bir zaman olmadı. Yöneticilerin platformların eksikliklerini anlamalarına yardımcı olmak için görevlendirilen araştırma ekipleri, kaçınılmaz olarak uygunsuz gerçekleri ortaya çıkarır. Şirketler, “sorumlu yapay zeka” oluşturmak için ekipler tutar, ancak çalışanları algoritmik önyargıyı keşfettiğinde sertleşir. İç araştırmalarının kalitesiyle övünürler ama basına ulaştığında bunu reddederler. Google’da bu hikaye, etik AI araştırmacısı Timnit Gebru’nun zorunlu olarak ayrılması ve ardından ekibi için serpilmesiyle ortaya çıktı. Facebook’ta, Frances Haugen ve Facebook Dosyalarına yol açtı.

Bu nedenlerle, bir teknoloji platformunun bu tatsız bulgulardan birini alıp dünyanın görmesi için yayınlaması her zaman dikkate değerdir. Ekim ayının sonunda Twitter tam da bunu yaptı. İşte Dan Milmo Muhafız:

Twitter, sağcı politikacılardan ve haber kuruluşlarından gelen tweetleri, solcu kaynaklardan gelen içerikten daha fazla güçlendirdiğini kabul etti.

Sosyal medya platformu, Birleşik Krallık, ABD, Kanada, Fransa, Almanya, İspanya ve Japonya olmak üzere yedi ülkedeki seçilmiş yetkililerin tweetlerini inceledi. Ayrıca, haber kuruluşlarından gelen siyasi içeriğin Twitter’da güçlendirilip güçlendirilmediğini de inceledi ve öncelikle Fox News gibi ABD haber kaynaklarına odaklandı. New York Times ve BuzzFeed. […]

Araştırma, Almanya dışında yedi ülkeden altısında sağcı politikacıların tweetlerinin soldan gelenlere göre algoritmadan daha fazla destek aldığını; sağ eğilimli haber kuruluşları soldakilerden daha fazla güçlendirildi; ve genellikle politikacıların tweetleri, kronolojik zaman çizelgesinden çok algoritmik bir zaman çizelgesi tarafından güçlendirildi.

Twitter’ın konuyla ilgili blog yazısı Çalışmanın bulgularını, araştırma ve metodolojisini daha ayrıntılı açıklayan 27 sayfalık bir makale eşlik etti. Bu yıl, şirketin çalışmalarına yönelik spekülatif eleştirilere yönelik deneysel desteği gönüllü olarak vermesi bu yıl ilk değildi. Bu yaz Twitter, fotoğraf kırpma algoritmalarında önyargı bulmak için açık bir yarışmaya ev sahipliği yaptı. James Vincent sonuçları şu adreste açıkladı: Sınır:

En üstte yer alan giriş, Twitter’ın kırpma algoritmasının “ince, genç, açık veya sıcak ten rengine ve pürüzsüz cilt dokusuna ve basmakalıp kadınsı yüz özelliklerine sahip” yüzleri desteklediğini gösterdi. İkinci ve üçüncü sıradaki girişler, sistemin beyaz veya gri saçlı insanlara karşı önyargılı olduğunu, yaş ayrımcılığını akla getirdiğini ve görüntülerde Arapça yazı yerine İngilizceyi tercih ettiğini gösterdi.

Bu sonuçlar kapalı bir sohbet grubunda saklanmadı, asla tartışılmayacaktı. Bunun yerine, Twitter’da makine öğrenimi etiği ve sorumluluğuna liderlik eden Rumman Chowdhury, bunları DEF CON’da herkese açık bir şekilde sundu ve algoritmik önyargının gerçek dünyadaki etkilerini göstermeye yardımcı oldukları için katılımcıları övdü. Kazananlara katkıları için ödeme yapıldı.

Bir yandan, burada Twitter’ın cesaretini abartmak istemiyorum. Şirketin yayınladığı sonuçlar, bazı eleştirilere açık olmakla birlikte, tam bir Kongre soruşturmasıyla sonuçlanacak hiçbir şey değil. Ve şirketin, her ikisi de milyarlarca insana hizmet eden Google veya Facebook ana şirketi Meta’dan çok daha küçük olması, araştırmacıları tarafından bulunan herhangi bir şeyin küresel bir yangın fırtınasını tetikleme olasılığının daha düşük olduğu anlamına geliyor.

Aynı zamanda, Twitter Sahip olmak bu tür kamu yararına işler yapmak için. Ve uzun vadede, şirketi daha güçlü ve daha değerli kılacağına inanıyorum. Ancak herhangi bir şirket yöneticisinin veya yönetim kurulu üyesinin bunu yapmaya karşı bir dava açması nispeten kolay olacaktır.

Bu nedenle, bundan sorumlu ekiple konuşmak için can atıyorum. Bu hafta, Chowdhury’nin ekibinin ürün lideri olan Chowdhury ve Jutta Williams ile sanal olarak tanıştım. (Rahatsız edici bir şekilde, 28 Ekim itibariyle: Twitter ekibinin resmi adı Makine Öğrenimi Etiği, Şeffaflık ve Hesap Verebilirlik: META’dır.) Twitter’ın bu işi nasıl yaptığı, şirket içinde nasıl karşılandığı ve nereye gittiği hakkında daha fazla bilgi edinmek istiyordum. sonraki.

İşte öğrendiklerimden bazıları.

Twitter, halkın katılımının hızlandıracağına ve bulgularını iyileştireceğine bahse giriyor. Twitter’ın AI etik araştırmasının daha sıra dışı yönlerinden biri, katılmak için dışarıdan gönüllü araştırmacılara ödeme yapmasıdır. Chowdhury, etik bir bilgisayar korsanı olarak eğitildi ve siber güvenlik alanında çalışan arkadaşlarının, insanların yardım etmesi için finansal teşvikler yaratarak çoğu zaman sistemleri daha çevik bir şekilde koruyabildiğini gözlemledi.

Bir yıl önce şirkete AI riskini alarak katılan Chowdhury, “Twitter, bunu yapacak kadar görünür ve etkili ve aynı zamanda finanse edecek kadar hırslı bir kuruluşta gerçekten çalışabildiğim ilk seferdi” dedi. yönetim başlangıç. “Bunu bulmak zor.”

Chowdhury, halktan algoritmik önyargı hakkında iyi geribildirim almanın genellikle zor olduğunu söyledi. Çoğu zaman, yalnızca en yüksek seslere hitap edilirken, etkilenen grupların platformlarda onlara hitap edebilecek bağlantıları olmadığı için büyük sorunlar oyalanmaya bırakılır. Diğer zamanlarda, sorunlar nüfusa yayılır ve bireysel kullanıcılar olumsuz etkileri doğrudan hissetmeyebilir. (Gizlilik böyle bir sorun olma eğilimindedir.)

Chowdhury, Twitter’ın önyargı ödülünün, şirketin bu geri bildirimi almak ve uygulamak için bir sistem oluşturmasına yardımcı olduğunu söyledi. Şirket, algoritmalarının büyük ölçüde genç, beyaz ve güzelleri tercih ettiği tespit edildikten sonra önizlemelerde fotoğrafları kırpmayı bırakacağını duyurdu.

Sorumlu yapay zeka, kısmen zor çünkü kimse anlamıyor, algoritmalar tarafından verilen kararları tam olarak anlamıyor.. Sosyal beslemelerdeki sıralama algoritmaları olasılıklıdır – size ne kadar beğenme, paylaşma veya yorum yapma olasılığınıza bağlı olarak bir şeyler gösterirler. Ancak bu kararı veren tek bir algoritma yok – genellikle birden fazla (bazen düzinelerce) farklı modelden oluşan bir ağdır, her biri tahminlerde bulunur ve daha sonra sürekli değişen faktörlere göre farklı şekilde ağırlıklandırılır.

“Sorumlu” olan yapay zeka sistemlerini güvenle inşa etmenin bu kadar zor olmasının ana nedeni budur – işin içinde çok fazla tahmin vardır. Chowdhury burada sorumlu yapay zeka ve siber güvenlik üzerinde çalışmak arasındaki farka dikkat çekti. Güvenlikte, saldırganın nereye girdiğini keşfedebildiğiniz sürece, sistemin neden savunmasız olduğunu çözmenin genellikle mümkün olduğunu söyledi. Ancak sorumlu yapay zekada, bir sorunu bulmak genellikle size onu neyin yarattığı hakkında pek bir şey söylemez.

Örneğin, şirketin sağcı sesleri güçlendirme konusundaki araştırmasında durum böyle. Twitter, fenomenin gerçek olduğundan emin, ancak yalnızca arkasındaki nedenlerle ilgili teoriler üretebilir. Algoritmada bir şey olabilir. Ancak bu aynı zamanda bir kullanıcı davranışı da olabilir – belki sağcı politikacılar daha fazla yorum alacak şekilde tweet atma eğilimindedir, bu da tweet’lerinin Twitter sistemleri tarafından daha fazla ağırlıklandırılmasına neden olur.

Daha önce Google ve Facebook’ta çalışmış olan Williams, “Büyük sistemlerde istenmeyen sonuçlara yol açan bir yasa var” dedi. “Çok farklı şeyler olabilir. Algoritmik tavsiyeyi nasıl ağırlıklandırdığımız bunun bir parçası olabilir. Ancak bunun siyasi bir ilişkinin sonucu olması amaçlanmamıştı. Dolayısıyla yapılacak çok araştırma var.”

Sıralama algoritmalarının ne “yapması” gerektiği konusunda gerçek bir fikir birliği yok. Twitter, sağcı içeriğin daha geniş çapta yayılmasına neden olan gizemi çözse bile, şirketin bu konuda ne yapması gerektiği net olmayacak. Örneğin, yanıt algoritmada değil de belirli hesapların davranışında yatıyorsa? Sağcı politikacılar, solcu politikacılardan daha fazla yorum üretiyorsa, Twitter’ın yapacağı bariz bir müdahale olmayabilir.

Chowdhury, “Kimsenin, insanların seslerini bir tür toplum mühendisliğine zorlama işinde olmamızı istediğini sanmıyorum” dedi. “Ama aynı zamanda, olumsuz içeriğin veya toksik içeriğin veya haksız siyasi önyargının büyütülmesini istemediğimiz konusunda hepimiz hemfikiriz. Yani bunlar, bizim için açmayı çok istediğim şeyler.”

Bu konuşmanın halka açık olarak yapılması gerektiğini söyledi.

Twitter, algoritmaların kurtarılabileceğini düşünüyor. Tüm sosyal yayınlarımızın akıl almaz derecede karmaşık olduğu ve yaratıcıları tarafından açıklanamayacağı fikrine olası bir yanıt, onları kapatmamız ve kodu silmemiz gerektiğidir. Kongre şimdi düzenli olarak, sıralama algoritmalarını yasa dışı hale getirecek veya platformları tavsiye ettikleri şeyden yasal olarak sorumlu hale getirecek veya platformları insanların bunlardan vazgeçmesine izin vermeye zorlayacak faturalar getiriyor.

Twitter ekibi, birincisi, sıralamanın bir geleceği olduğuna inanıyor.

Williams, “Algoritma kurtarılabilecek bir şeydir” dedi. “Algoritmanın anlaşılması gerekiyor. Ve girdiler Algoritma için herkesin yönetebileceği ve kontrol edebileceği bir şey olması gerekiyor.”

Şansımız yaver giderse, Twitter tam da bu tür bir sistem kuracaktır.

Tabii ki, böyle bir yazı yazmanın riski, benim deneyimime göre böyle takımların kırılgan olması. Bir dakika, liderlik bulgularından memnun ve bunun için hevesli bir şekilde işe alıyor; sonraki, bütçe kesintileri arasında yıpranarak yok oluyor ya da kişilik çatışmaları veya düzenleyici kaygılar arasında yeniden organize oluyor. Twitter’ın META ile erken dönemdeki başarısı umut verici, ancak META’nın uzun vadeli geleceği garanti değil.

Bu arada, işin zorlaşması muhtemeldir. Twitter şu anda ağını merkezi olmayan hale getirmek için bir proje üzerinde aktif olarak çalışıyor; bu, ağın parçalarını ağı daha sorumlu bir şekilde inşa etme çabalarından koruyabilir. Twitter CEO’su Jack Dorsey ayrıca, kullanıcılara yayınlarının nasıl sıralanacağı konusunda daha fazla seçenek sunan bir “sosyal medya algoritmaları için uygulama mağazası” tasarladı.

Sıralama yapmak yeterince zor bir sorumlu bir şekilde besleyin – tüm bir algoritma uygulama mağazasını “sorumlu” hale getirmenin ne anlama geldiği çok daha büyük bir zorluk olacaktır.

Williams, “Doğrudan bir algoritma pazarına atlamamızın mümkün olduğundan emin değilim” dedi. “Ancak algoritmamızın sizin tarafınızdan küratörlüğünü yaptığı sinyali anlamasının mümkün olduğunu düşünüyorum. Yani bir tweet’te küfür varsa, örnek olarak: bu tür bir dile ne kadar duyarlısınız? Çok, çok saygısız olduğunu düşündüğünüz ve görmek istemediğiniz belirli kelimeler var mı? Bu sinyalin herhangi bir tavsiyede kullanılabilmesi için tercihlerinizi belirlemeniz için size nasıl kontroller verebiliriz?

Williams, “Üçüncü taraf bir grup algoritmadan daha fazla üçüncü taraf sinyali olduğunu düşünüyorum” dedi. “Bir algoritmada ne olduğuna dikkat etmelisin.”



[ad_2]

Source link

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz