Etiket: content moderation

  • # Meta’nın Bağımsız Denetleme Kurulu’ndan Şirketin Yeni Nefret Söylemi Politikalarına İlişkin Detay Talebi

    ## Meta’nın Bağımsız Denetleme Kurulu’ndan Şirketin Yeni Nefret Söylemi Politikalarına İlişkin Detay Talebi

    Meta’nın içerik denetleme kararlarına yardımcı olmak amacıyla kurulan bağımsız denetleme kurulu, şirketin Ocak ayında duyurduğu yeni nefret söylemi politikalarına yanıt verdi. Kurul, Meta’nın bu yeni politikalarının “aceleyle, olağan prosedürden ayrılarak” duyurulduğunu belirterek, şirketinden kurallarına ilişkin daha fazla bilgi talep etti.

    Denetleme Kurulu, Meta’dan yeni politikalarının hassas kullanıcı grupları üzerindeki etkisini değerlendirmesini, bu bulguları kamuoyuyla paylaşmasını ve her altı ayda bir Kurulu bilgilendirmesini istedi. Ayrıca, Kurulun Meta ile ABD dışındaki bölgelerdeki gerçeklik kontrolü politikalarını şekillendirme konusunda da görüşmelerde bulunduğu belirtildi.

    Bu gelişmeler, Meta CEO’su Mark Zuckerberg’in Donald Trump’ın göreve başlamasından sadece haftalar önce, Facebook, Instagram ve Threads’de “daha fazla ifade özgürlüğü”ne olanak tanımak amacıyla şirketin içerik denetleme politikalarında başlattığı revizyonun bir parçası olarak değerlendiriliyor. Meta, bu girişim kapsamında çeşitli platformlarında göçmenleri ve LGBTQIA+ kullanıcıları koruyan nefret söylemi kurallarını gevşetmişti.

    Denetleme Kurulu, Meta’nın yeni politikalarıyla ilgili olarak, şirketten diğer şeylerin yanı sıra yeni topluluk notları sisteminin etkinliğini ölçmesini, nefret dolu ideolojilere ilişkin revize edilmiş duruşunu açıklığa kavuşturmasını ve taciz politikalarının ihlallerini nasıl uyguladığını iyileştirmesini isteyen 17 öneride bulundu. Ayrıca Kurul, Meta’dan yeni politikalardan etkilenen paydaşlarla etkileşim kurarak, BM İş Dünyası ve İnsan Hakları Rehber İlkelerine yönelik 2021 taahhüdünü yerine getirmesini istedi. Kurul, Meta’nın bunu en başından yapması gerektiğini belirtiyor.

    Meta’nın daha geniş kapsamlı politikalarını yönlendirme yeteneği sınırlı olsa da Denetleme Kurulu, şirketin kendi kurallarına göre bireysel gönderilerle ilgili kararlarına uymak zorunda.

    Meta’nın Kurula bir politika danışma görüşü başvurusu yapması halinde – ki bunu daha önce birkaç kez yapmıştı – Kurul, Meta’nın içerik denetimini yeniden şekillendirmek için bir kanala sahip olabilir.

    Meta’nın platformlarındaki göçmen karşıtı söylem, engellileri hedef alan nefret söylemi ve LGBTQIA+ seslerinin bastırılması gibi konularla ilgili 11 davada yayınlanan kararlarda, Denetleme Kurulu’nun Zuckerberg’in bu yılın başlarında duyurduğu yeni içerik politikalarının birçoğunu eleştirdiği görülüyor. Kurul, Meta’nın Ocak ayındaki politika değişikliklerinin bu kararların sonucunu etkilemediğini açıkladı.

    Facebook ve Instagram’daki trans kadınların videolarıyla ilgili iki ABD davasında, Kurul, kullanıcı raporlarına rağmen Meta’nın içeriği yayında bırakma kararını onayladı. Ancak Kurul, Meta’nın “transseksüalizm” terimini Nefret Dolu Davranış politikalarından kaldırmasını öneriyor.

    Kurul, Meta’nın 2024 yazında İngiltere’de meydana gelen göçmen karşıtı ayaklanmalarla ilgili üç Facebook gönderisini yayında bırakma kararını bozdu. Kurul, Meta’nın şirketin şiddet ve tahrik politikalarını ihlal eden Müslüman ve göçmen karşıtı içerikleri kaldırmakta çok yavaş davrandığını tespit etti.

  • # Oversight Board Demands Clarity on Meta’s Revised Hate Speech Policies

    ## Oversight Board Demands Clarity on Meta’s Revised Hate Speech Policies

    Meta’s Oversight Board, the independent body tasked with advising the social media giant on content moderation, has issued a strong response to the company’s recently implemented hate speech policies. Announced in January, these revised policies have raised concerns about their potential impact on vulnerable user groups and the overall safety of online discourse.

    The Oversight Board’s response, released Tuesday, criticizes the “hasty” manner in which the new policies were introduced, claiming a departure from Meta’s standard procedures. The Board is now demanding greater transparency and accountability from the company, calling for a comprehensive assessment of the policies’ effects, particularly on marginalized communities. The Board further requests that Meta report its findings publicly and provide regular updates to the Board itself every six months.

    Beyond the U.S., the Board is also actively engaged in discussions with Meta regarding its fact-checking strategies, aiming to influence the company’s approach to information integrity on a global scale.

    Meta’s recent shift in content moderation appears to stem from a broader initiative, reportedly launched shortly before President Donald Trump’s inauguration, to encourage “more speech” across its platforms, including Facebook, Instagram, and Threads. This initiative included rolling back existing hate speech rules that previously offered protections to immigrants and LGBTQIA+ individuals.

    In its response, the Oversight Board outlined 17 recommendations for Meta. These recommendations include evaluating the efficacy of Meta’s new community notes system, clarifying the company’s redefined stance on hateful ideologies, and improving the enforcement of harassment policies. The Board also urged Meta to adhere to its 2021 commitment to the UN Guiding Principles on Business and Human Rights, emphasizing the importance of engaging with stakeholders affected by the new policies – something the Board believes should have been done from the outset.

    While the Oversight Board’s power is somewhat limited, as it cannot dictate Meta’s overall policy direction, the company is bound by the Board’s decisions on individual content moderation cases. Furthermore, if Meta were to seek a policy advisory opinion from the Board – a procedure used sparingly in the past – the Board could potentially play a more significant role in shaping Meta’s long-term content moderation strategy.

    The Board’s scrutiny extends to several recent cases across Meta’s platforms, involving issues such as anti-migrant rhetoric, hate speech targeting people with disabilities, and the suppression of LGBTQIA+ voices. While Meta’s January policy changes did not influence the outcomes of these specific cases, the Board’s decisions underscore its concern about the potential consequences of the revised rules.

    For example, while the Board upheld Meta’s decision to allow videos of transgender women on Facebook and Instagram, it recommended the removal of the term “transgenderism” from the company’s Hateful Conduct policy. Conversely, the Board overturned Meta’s decision to leave up three Facebook posts related to anti-immigration riots in the U.K. in 2024, citing the company’s slow response in removing content that violated its own violence and incitement policies. These decisions highlight the ongoing tension between promoting free speech and mitigating the spread of harmful content on Meta’s platforms.