Meta, müteahhit istifa ederken Afrika içerik denetimini artırmaya çağırdı


Hak grupları, bölgedeki ana üçüncü taraf yüklenicinin artık sosyal medya devi için zararlı gönderileri görüntülemeyeceğini söylemesinin ardından, Meta Platformları Afrika’daki içerik denetimini iyileştirme fırsatını yakalamaya çağırıyor.

Kenya merkezli dış kaynak şirketi Sama, 10 Ocak’ta yaptığı açıklamada, veri etiketleme işine odaklanmak için Mart ayında Facebook, WhatsApp ve Instagram’ın sahibine artık içerik denetleme hizmetleri sağlamayacağını söyledi.

Sama, operasyonlarını düzene sokmak ve verimliliği artırmak için personelinin %3’ünü (yaklaşık 200 çalışanı) işten çıkaracağını söyledi. Meta’ya veri etiketleme hizmeti vermeye devam edecektir.

Duyuru, hem Sama hem de Meta’nın Kenya’da işçilerin sendikalaşmasını engellediği ve işçileri suistimal ettiği iddiasıyla bir davayla karşı karşıya kaldığı sırada geldi. Başka bir dava Meta’yı Facebook’ta şiddet içerikli paylaşımların yayılmasına izin vererek komşu Etiyopya’da iç çatışmayı alevlendirmekle suçluyor. Her iki şirket de rekorunu savundu.

Dijital haklar savunucuları, Meta’nın Afrika ülkelerindeki zararlı içeriği engellemek için gösterdiği çabaların, daha zengin ülkelerle karşılaştırıldığında ne yazık ki yetersiz olduğunu söyledi ve şirketi denetim süreçlerini büyük ölçüde iyileştirmeye çağırdı.

Access Now Afrika politika analisti Bridget Andere, “Sama’nın çıkışıyla birlikte, şimdi Meta’nın işleri yoluna koyması ve bölgedeki Afrikalı arabulucular için daha iyi çalışma koşulları sağlaması için iyi bir şans olacak” dedi.

Thomson Reuters Foundation’a verdiği demeçte, “Meta, yerel dilleri ve lehçeleri yeterince kapsayacak şekilde bölge için moderatör sayısını artırmalı ve ayrıca zararlı içeriği teşvik eden algoritmaları konusunda daha şeffaf olmalıdır” dedi.

Meta, Doğu Afrika için yeni bir üçüncü taraf yüklenici bulup bulmadığına dair herhangi bir ayrıntı vermedi, ancak Sama’nın çekilmesinin sosyal medya platformlarındaki kullanıcıları olumsuz etkilemeyeceğini söyledi.

Bir Meta sözcüsü, “Sama’nın sosyal medya platformlarına sağladığı içerik inceleme hizmetlerinden çıkma kararına saygı duyuyoruz” dedi.

“İçeriği inceleme yeteneğimiz üzerinde herhangi bir etki olmamasını sağlamak için bu geçiş sırasında ortaklarımızla birlikte çalışacağız.”

YASAL ZORLUKLAR
Meta’nın Doğu Afrika’daki yasal zorlukları, eski moderatör Daniel Motaung’un Kenya’daki kötü çalışma koşulları nedeniyle dava açmasıyla geçen yıl Mayıs ayında başladı.

Sama’ya karşı da açılan dilekçede, Facebook gönderilerini yöneten işçilerin düzensiz ücretlerle, yetersiz akıl sağlığı desteğiyle, sendika karşıtı faaliyetlerle ve mahremiyet ve onurlarının ihlal edilmesiyle karşı karşıya kaldıkları iddia ediliyor.

Sama iddiaları reddederken Meta, “ortaklarının işçilere sektör lideri ücret, yan haklar ve destek sağlamasını” gerektirdiğini söyledi.

Bir yargıcın, bir Kenya mahkemesinin şikayeti dinleyip dinlemeyeceği konusunda 6 Şubat’ta karar vermesi bekleniyor.

Geçen ay Meta, şirketi Facebook’ta Etiyopya iç savaşını alevlendiren şiddet içerikli paylaşımların gelişmesine izin vermekle suçlayan başka bir davayla karşı karşıya kaldı.

Etiyopyalı iki araştırmacı ve Kenya’daki Katiba Enstitüsü haklar grubu tarafından açılan dava, Facebook’un tavsiye sistemlerinin, araştırmacılardan birinin babasının öldürülmesinden önce gelenler de dahil olmak üzere, Etiyopya’daki nefret dolu ve şiddet içerikli paylaşımları artırdığını savunuyor.

Davacılar, Meta’nın şiddet içerikli içeriği azaltmak için acil adımlar atmasını, Nairobi’deki denetim kadrosunu artırmasını ve Facebook’ta kışkırtılan küresel şiddet kurbanları için yaklaşık 2 milyar dolarlık tazminat fonu oluşturmasını talep ediyorlar.

Meta, Facebook ve Instagram’da nelere izin verilip verilmediğini belirleyen katı kurallara sahip olduğunu söyledi.

Meta sözcüsü, “Nefret söylemi ve şiddete teşvik bu kurallara aykırıdır ve bu içeriği bulup kaldırmamıza yardımcı olacak ekiplere ve teknolojiye büyük yatırım yapıyoruz” dedi.

“Etiyopya’daki güvenlik ve bütünlük çalışmalarımıza, yerel sivil toplum kuruluşlarından ve uluslararası kurumlardan gelen geri bildirimler rehberlik ediyor.”

DIŞ KAYNAK KULLANIMINA SON VERİN, ALGORİTMALARI İNCELEYİN
Dünya çapında binlerce moderatör, şiddet, çıplaklık, ırkçılık veya diğer saldırgan içerikleri barındırabilecek sosyal medya gönderilerini inceliyor. Birçoğu doğrudan teknoloji şirketleri yerine üçüncü taraf yükleniciler için çalışıyor.

Meta, daha önce içerik moderatörlerinin çalışma koşullarıyla ilgili incelemelere ve nefret söylemi ile şiddet içerikli içeriği durdurma eylemlerine yönelik eleştirilere maruz kalmıştı.

Temmuz 2021’de Kaliforniyalı bir yargıç, Facebook ile firmayı grafik ve şiddet içeren görüntülere maruz kalmaları nedeniyle kendilerini psikolojik yaralanmalardan koruyamamakla suçlayan 10.000’den fazla moderatör arasında 85 milyon dolarlık bir anlaşmayı onayladı.

Aynı yıl Myanmar’dan gelen Rohingya mülteciler, şirketin Rohingya karşıtı nefret söylemine karşı harekete geçmediği ve azınlık grubuna yönelik şiddete katkıda bulunduğu iddiasıyla Meta’ya 150 milyar dolarlık dava açtı.

Hak grupları, ılımlılık süreçlerinin belirli kültürel ve toplumsal bağlamları anlamakta başarısız olduğunu ve yerel diller ve lehçeler hakkında bilgi sahibi olmadığını, bu da sorunlu içeriğin hızla yayılmasına ve ciddi sonuçlar doğuracak şekilde genişletilmesine yol açtığını söylüyor.

Kenya’daki her iki davayı da destekleyen Londra merkezli bir teknoloji-adalet savunuculuğu grubu olan Foxglove’un yöneticisi Cori Crider, Meta’yı dış kaynak kullanım uygulamalarını sona erdirmeye ve Afrika’da güvenliğe koyduğu “acınası” kaynakları artırmaya çağırdı.

Crider, “Facebook kendi bünyesinde ılımlılık almalı, Nairobi’de hayati güvenlik işleri yapan 260 içerik moderatörünün her birini işe almalı ve bu insanlara makul ücretler, tam klinik akıl sağlığı desteği, haysiyet ve prestij ile değer vermeli” dedi.

“Dış kaynak kullanımı bozuldu ve bedelini hem işçiler hem de sıradan insanlar ödedi.”

Uluslararası Af Örgütü’nde yapay zeka ve insan hakları araştırmacısı Alia Al Ghussain, Facebook’un haber akışını, sıralamasını, tavsiyelerini ve grup özelliklerini güçlendiren ve kullanıcıların platformda gördüklerini şekillendiren algoritmalarının da incelemeye ihtiyacı olduğunu söyledi.

Etiyopya davasını destekleyen organizasyonun sahibi Al Ghussain, “Meta’nın katılıma dayalı iş modeli, algoritmaların zararlı ve tahrik edici içeriğin viral hale gelmesine neden olacak şekilde programlandığı anlamına geliyor” dedi.

“Hem Etiyopya davasında hem de Myanmar davasında gördüğümüz dava, sorunun sistemik olduğunu ve acilen düzenleme yoluyla ele alınması gerektiğini açıkça gösteriyor.”

(Nita Bhalla @nitabhalla tarafından rapor edildi; Helen Popper tarafından düzenlendi. Thomson Reuters Vakfı, Thomson Reuters’in hayırsever koludur.



Kaynak : https://radarr.africa/meta-urged-to-boost-africa-content-moderation-as-contractor-quits/?utm_source=rss&utm_medium=rss&utm_campaign=meta-urged-to-boost-africa-content-moderation-as-contractor-quits

Yorum yapın