Etiket: censorship

  • # Indian Court Orders Blocking of Proton Mail Over Obscene Content Allegations

    ## Indian Court Orders Blocking of Proton Mail Over Obscene Content Allegations

    In a move that raises concerns about online privacy and censorship, an Indian court has ordered the blocking of encrypted email provider Proton Mail across the country. The Karnataka High Court issued the directive on Tuesday following a complaint from New Delhi-based M Moser Design Associates, which alleged its employees received emails containing obscene and vulgar content via the service.

    Justice M Nagaprasanna, presiding over the hearing streamed on YouTube, instructed the Indian government to “block Proton Mail, bearing in mind the observations made in the course of the order,” citing the Information Technology Act 2008.

    M Moser Design Associates initially filed its complaint in January, calling for the regulation or outright blocking of Proton Mail in India. The firm claimed that Proton Mail refused to cooperate with a police investigation by sharing sender details of the allegedly offensive emails.

    During court proceedings, Additional Solicitor General Aravind Kamath, representing the Indian government, suggested that criminal courts could potentially seek information from Swiss authorities, given that the initial complaint was already filed.

    As of now, the block on Proton Mail has not yet taken effect, according to TechCrunch’s own checks within India. TechCrunch has reached out to Proton Mail for comment and will update this story as more information becomes available.

    This isn’t the first time Proton Mail has faced legal challenges in India. Last year, the Tamil Nadu police department requested a block on the service after it was reportedly used to send hoax bomb threats to local schools. While the Indian government initially notified internet providers to comply, Swiss federal authorities intervened, preventing the block from being implemented.

    “Blocking access to Proton Mail simply prevents law-abiding citizens from communicating securely and does not prevent cybercriminals from sending threats with another email service, especially if the perpetrators are located outside of India,” Proton Mail stated last year regarding the incident.

    The scrutiny of Proton Mail in India extends beyond these individual incidents. In October 2024, the Delhi High Court directed state police and the Ministry of Home Affairs to investigate the alleged widespread use of Proton Mail across the country. Aravind Kamath, the additional solicitor general, assured the Karnataka High Court that he would review the Delhi High Court’s observations on Proton Mail’s use in India. The current situation underscores the ongoing tension between security concerns and the right to privacy in the digital age.

  • # Hindistan’da Proton Mail’e Erişim Engelleniyor: Mahkeme Kararı Şirketi Zora Sokuyor

    ## Hindistan’da Proton Mail’e Erişim Engelleniyor: Mahkeme Kararı Şirketi Zora Sokuyor

    Hindistan’da bir mahkeme, şifreli e-posta hizmeti sağlayıcısı Proton Mail’in ülke genelinde engellenmesine karar verdi. Karnataka Yüksek Mahkemesi’nin bu kararı, Yeni Delhi merkezli M Moser Design Associates adlı firmanın açtığı dava sonucunda geldi.

    Firma, çalışanlarının Proton Mail üzerinden gönderilen müstehcen ve uygunsuz içerikli e-postalar aldığını iddia etti. Davanın YouTube üzerinden yayınlanan duruşmasında Yargıç M Nagaprasanna, Bilgi Teknolojileri Yasası 2008 kapsamında Hindistan hükümetine Proton Mail’i engelleme talimatı verdi.

    Ocak ayında açılan davada firma, Proton Mail’in polise yapılan şikayete rağmen iddia edilen rahatsız edici e-postaların göndericisinin bilgilerini paylaşmayı reddettiğini belirterek, hizmetin düzenlenmesini veya engellenmesini talep etmişti.

    Hindistan hükümetini temsil eden Ek Başsavcı Aravind Kamath, daha önce yüksek mahkemeye hükümetin davacının endişelerini gidermede sınırlı bir rolü olabileceğini söylemiş ve davacının şikayette bulunması nedeniyle ceza mahkemelerinin İsviçre makamlarından gerekli bilgileri talep edebileceğini belirtmişti.

    TechCrunch’ın Hindistan’daki Proton Mail web sitesini kontrol etmesine göre, engelleme henüz yürürlüğe girmedi. TechCrunch, yorum almak için Proton Mail ile iletişime geçti ve geri dönüş olursa bu haber güncellenecektir.

    Bu karar, Proton Mail’in Hindistan’da karşılaştığı son yasal mücadele. Şirket, ülkede faaliyet göstermesini engellemeyi amaçlayan son iki yılda ikinci kez böyle bir kararla karşılaşıyor.

    Geçtiğimiz yıl, Tamil Nadu eyaletindeki polis departmanı, yerel okullara sahte bomba tehditleri göndermek için Proton Mail’in kullanıldığının tespit edilmesinin ardından hizmeti engellemeye çalışmıştı. Hindistan hükümetinin BT bakanlığı, kolluk kuvvetlerinin talebi üzerine internet sağlayıcılarına Proton Mail’i engellemeleri için bildirimde bulunmuştu. Ancak İsviçre federal makamları, Proton Mail’in engellenmesini engellemek için müdahale etmişti.

    Proton, o dönemde yaptığı açıklamada, “Proton Mail’e erişimi engellemek, sadece yasalara uyan vatandaşların güvenli bir şekilde iletişim kurmasını engeller ve siber suçluların başka bir e-posta hizmetiyle tehditler göndermesini engellemez, özellikle de failler Hindistan dışında bulunuyorsa” demişti.

    Buna rağmen, Ekim 2024’te Delhi Yüksek Mahkemesi, eyalet polisini ve Hindistan hükümetinin içişleri bakanlığını ülke genelinde Proton Mail’in iddia edilen kullanımını araştırmaya çağırmıştı. Ek Başsavcı Kamath, Karnataka Yüksek Mahkemesi’ne Delhi Yüksek Mahkemesi’nin Proton Mail’in Hindistan’daki kullanımıyla ilgili gözlemlerini inceleyeceğine dair güvence vermişti.

  • # “Take It Down Act” Heads to Trump’s Desk: A Double-Edged Sword for Online Safety?

    ## “Take It Down Act” Heads to Trump’s Desk: A Double-Edged Sword for Online Safety?

    The “Take It Down Act,” a bill aimed at combating the spread of nonconsensual intimate images (NCII), including AI-generated “deepfakes,” is on its way to President Trump’s desk after a resounding 409-2 vote in the House. While proponents hail the bill as a crucial step in protecting individuals from online abuse, critics warn that its broad provisions could be weaponized for censorship and create unintended consequences for privacy and free speech.

    The legislation mandates that social media companies remove flagged NCII content within 48 hours. This includes both real and computer-generated images, acknowledging the rising threat of deepfakes in online harassment and abuse, particularly affecting young people. President Trump has already pledged to sign the bill, even jokingly suggesting he might use it for his own protection, citing perceived unfair treatment online.

    The rapid proliferation of AI tools has fueled concerns about the ease with which damaging and fabricated content can spread. The “Take It Down Act” aims to address this issue directly, potentially offering victims a faster and more effective means of removing harmful content.

    However, the Cyber Civil Rights Initiative (CCRI), an organization dedicated to fighting image-based sexual abuse, expresses concerns about the potential for misuse. While they acknowledge the need to criminalize the nonconsensual distribution of intimate images, they worry that the takedown provision is “highly susceptible to misuse” and could be “counter-productive for victims.” Their primary concern lies with the bill’s enforcement by the Federal Trade Commission (FTC), particularly given President Trump’s past actions of firing dissenting Democratic commissioners. The CCRI fears that enforcement could be selectively applied, favoring platforms aligned with the administration while overlooking violations on others. This selective enforcement could inadvertently embolden “unscrupulous platforms” to ignore reports of NCII.

    Furthermore, the rapid turnaround time for content removal raises concerns about the accuracy and fairness of the process. The Electronic Frontier Foundation (EFF) warns that smaller platforms, struggling to comply with the strict deadlines, may resort to flawed filters to automatically flag and remove content, potentially leading to censorship of legitimate expression. The EFF also points out that the bill does not exempt end-to-end encrypted services, raising significant privacy concerns. How can these services comply with takedown requests when they cannot monitor user content? The EFF suggests that platforms might abandon encryption altogether, turning private conversations into surveilled spaces, which could negatively impact abuse survivors who rely on these platforms for secure communication.

    Despite these criticisms, the “Take It Down Act” enjoys widespread support. First Lady Melania Trump has championed the bill, and it has garnered backing from parent and youth advocates, as well as some within the tech industry. Google and Snap have publicly praised the bill’s passage, and Internet Works, a group representing medium-sized tech companies, believes it will “empower victims” to remove harmful content.

    However, dissenting voices like Representative Thomas Massie (R-KY), who voted against the bill, caution against its potential for abuse and unintended consequences. He views the legislation as a “slippery slope” that could be exploited for political or personal gain.

    The “Take It Down Act” presents a complex challenge: balancing the urgent need to protect individuals from online abuse, particularly with the rise of deepfakes, against the potential for censorship, privacy violations, and selective enforcement. As the bill heads to President Trump’s desk, its ultimate impact on online safety and freedom of expression remains to be seen.

  • # “İndir Onu Yasası” Trump’ın Masasında: Derin Sahtecilik ve İfade Özgürlüğü Arasında Kalan Kutuplaşma

    ## “İndir Onu Yasası” Trump’ın Masasında: Derin Sahtecilik ve İfade Özgürlüğü Arasında Kalan Kutuplaşma

    ABD Temsilciler Meclisi’nde 409’a 2 gibi ezici bir çoğunlukla kabul edilen “İndir Onu Yasası” (Take It Down Act), onay için Başkan Donald Trump’ın masasına gitti. Yasa, sosyal medya şirketlerine rıza dışı (yapay zeka ile üretilmiş olanlar da dahil) cinsel içerikli görselleri işaretlendikten sonra 48 saat içinde kaldırma zorunluluğu getiriyor. Trump’ın yasayı imzalayacağına dair söz vermesi, yasanın yürürlüğe girmesinin önünü açıyor.

    Derin sahtecilikler, çocuk güvenliği ve diğer hassas konular etrafında yıllardır süren tartışmaların ardından, bu yasa her iki meclisten de geçmeyi başaran nadir online güvenlik düzenlemelerinden biri. Ancak eleştirmenler, yasanın yönetim veya müttefiklerinin hoşlanmadığı içeriklere karşı bir silah olarak kullanılabileceği endişesini taşıyor.

    Yasa, rıza dışı mahrem görüntülerin (gerçek veya bilgisayar ürünü fark etmeksizin) yayınlanmasını suç haline getiriyor. Trump, Kongre’deki konuşmasında yasayı imzaladıktan sonra, “Kimse benden daha kötü muamele görmediği için, sakıncası yoksa bu yasayı kendim için de kullanacağım,” şeklinde esprili bir yorum yapmıştı.

    Yapay zeka araçlarının yaygınlaşmasıyla, gerçekçi görünen görüntüleri üretmek hiç olmadığı kadar kolaylaştı. Bu durum, okullarda yayılan derin sahte ve zarar verici içeriklerle ilgili endişeleri artırarak, yeni bir zorbalık ve kötüye kullanım alanı yarattı. Eleştirmenler bu konunun ele alınmasının önemli olduğunu kabul etse de, “İndir Onu Yasası” yaklaşımının başka şekillerde zarar vermek için kullanılabileceği konusunda endişeli.

    Görüntü bazlı cinsel istismarla mücadele etmek için kurulan Siber Medeni Haklar Girişimi (CCRI), “İndir Onu Yasası”nın geçişini coşkuyla karşılayamadıklarını belirtiyor. Grup, “Uzun zamandır gecikmiş olan rıza dışı mahrem görüntülerin federal olarak suç sayılmasını memnuniyetle karşılarken, kötüye kullanıma son derece açık ve mağdurlar için büyük olasılıkla ters tepecek bir kaldırma hükmüyle birleştirilmesinden üzüntü duyuyoruz,” şeklinde açıklama yapıyor.

    CCRI, yasanın, Trump tarafından görevden alınan Demokratik azınlık komisyon üyeleri olan Federal Ticaret Komisyonu (FTC)’nu yetkilendirmesinden endişe ediyor. FTC’nin seçici bir şekilde uygulanabileceği ve sonuç olarak yalnızca “vicdansız platformları” destekleyebileceği korkusu yaygın.

    Elektronik Sınır Vakfı (EFF) ise, platformların rıza dışı mahrem görüntü olarak işaretlenen içeriği kaldırması için kısa bir süre verilmesinin, özellikle küçük platformların yasal riskten kaçınmak için iddiaları doğrulayamadan hızlı bir şekilde uyum sağlamak zorunda kalacağına dikkat çekiyor. EFF, bu durumun, platformları kusurlu filtrelere yöneltebileceği uyarısında bulunuyor. Ayrıca, uçtan uca şifrelenmiş hizmetlerin de yasadan muaf tutulmadığına ve bunun da gizlilik teknolojisi için bir risk oluşturduğuna işaret ediyor.

    Tüm eleştirilere rağmen, “İndir Onu Yasası” geniş bir destek tabanı kazandı. First Lady Melania Trump yasanın önde gelen savunucusu olurken, ebeveyn ve gençlik savunucuları ile teknoloji sektöründen bazıları da yasaya destek verdi. Google’ın küresel ilişkiler başkanı Kent Walker, yasanın geçişini “bireyleri rıza dışı açık görüntülerden korumaya yönelik büyük bir adım” olarak nitelendirirken, Snap de oylamayı memnuniyetle karşıladı.

  • # Dijital Çağda İtibar Yönetimi: “Careless People” Vakası ve Zuckerberg Etkisi

    ## Dijital Çağda İtibar Yönetimi: “Careless People” Vakası ve Zuckerberg Etkisi

    Günümüzün dijital çağında, internetin sağladığı yayılma hızı, bireylerin ve kurumların itibarını korumasını her zamankinden daha zor hale getiriyor. Pluralistic.net’te yayınlanan “Careless People” başlıklı makale (erişim tarihi: 23 Nisan 2025), bu konuya dikkat çekerek, itibar yönetimi ve çevrimiçi görünürlüğün karmaşıklığını gözler önüne seriyor. Hacker News’ta Aldipower tarafından paylaşılan ve 449 puan alarak 242 yoruma konu olan bu makale, gelecekte olası bir “Zuckerstreisand” etkisi senaryosunu inceliyor.

    **Zuckerstreisand Etkisi Nedir?**

    Makalede bahsedilen “Zuckerstreisand” etkisi, Barbara Streisand’ın 2003 yılında evinin bulunduğu Malibu kıyılarının erozyona uğradığını gösteren bir fotoğrafı internetten kaldırtmaya çalışmasıyla ortaya çıkan bir olguya atıfta bulunuyor. Streisand’ın bu çabası, fotoğrafın popülerliğini katlayarak artırmış ve bu durum, sansür girişiminin tam tersi bir etki yaratmasıyla “Streisand etkisi” olarak adlandırılmıştı. Makalenin başlığı “Careless People” ise, bu türden dikkatsiz ve iyi düşünülmemiş eylemlerin itibar üzerinde yaratabileceği kalıcı hasara gönderme yapıyor.

    **Makaleden Çıkarılacak Dersler:**

    Makalede bahsedilen olası “Zuckerstreisand” senaryosu, özellikle kamuoyu önünde olan figürlerin ve büyük şirketlerin dijital ayak izlerini yönetirken son derece dikkatli olmaları gerektiğini vurguluyor. Yanlış bir hareket, istenmeyen bir içeriği bastırmaya çalışmak, onu daha da görünür hale getirebilir. Bu da itibarın ciddi şekilde zedelenmesine yol açabilir.

    **Teknoloji ve İtibarın Kesişimi:**

    Makalenin Hacker News’ta bu kadar ilgi görmesi, teknolojinin ve internetin itibar yönetimindeki rolünün ne kadar önemli olduğunu bir kez daha kanıtlıyor. Sosyal medya platformları, arama motorları ve bloglar, bir olayın hızla yayılmasına ve kamuoyunun şekillenmesine katkıda bulunabiliyor. Bu nedenle, itibar yönetimi stratejileri oluştururken, bu platformlardaki dinamiklerin ve algoritmaların iyi anlaşılması gerekiyor.

    **Sonuç:**

    “Careless People” vakası, dijital çağda itibarın ne kadar kırılgan olabileceğini ve dikkatli bir yaklaşım gerektirdiğini gösteren önemli bir örnek. Makalede vurgulanan “Zuckerstreisand” etkisi, sansür girişimlerinin genellikle ters teptiğini ve itibarın korunması için daha stratejik ve şeffaf yöntemlerin benimsenmesi gerektiğini hatırlatıyor. Unutulmamalıdır ki, internette yapılan her eylem, kalıcı bir dijital iz bırakır ve bu iz, gelecekteki itibarımızı şekillendirmede önemli bir rol oynar.

  • # The Zuckerberg Streisand Effect: When Careless AI Amplifies the Problem

    ## The Zuckerberg Streisand Effect: When Careless AI Amplifies the Problem

    In the age of increasingly sophisticated artificial intelligence, the line between protecting privacy and inadvertently creating a viral sensation is becoming thinner than ever. Aldipower’s recent piece, “Careless People,” highlighted on pluralistic.net and reaching a score of 449 with 242 comments as of April 23, 2025, explores a troubling trend: the “Zuckerberg Streisand Effect,” where ham-fisted attempts to shield personal information using AI ironically amplify its visibility and impact.

    The term, a riff on the original Streisand Effect (named after Barbara Streisand’s failed attempt to suppress an aerial photograph of her Malibu mansion, resulting in it being seen by millions), describes the phenomenon of attempts to censor or hide information inadvertently drawing more attention to it. In this new iteration, however, the culprit isn’t human overreaction, but rather AI systems deployed with insufficient foresight and a distinct lack of nuance.

    The article, linked to from pluralistic.net, delves into the specific case of “ZDGAF” (likely a placeholder name, abbreviation or internal codename for the scenario being discussed). While the details of ZDGAF are not readily available in this context, the core concept rings true: AI tasked with protecting user privacy, through blurring, redaction, or outright removal of content, can often backfire spectacularly.

    Imagine a scenario where an AI is instructed to remove identifying features from publicly available images. In its zeal, it might flag and remove entirely benign content, raising suspicion and sparking further investigation. Or, worse, it might misinterpret the context, leading to the removal of content that is genuinely newsworthy and in the public interest, fueling conspiracy theories and accusations of censorship.

    The crux of the problem, as Aldipower seems to suggest, lies in the “carelessness” of these AI implementations. Current AI models, while impressive in their ability to process vast amounts of data, often lack the critical thinking and contextual understanding necessary to make nuanced judgments about privacy. They operate on algorithms and pre-defined rules, making them prone to errors and unintended consequences.

    This “Zuckerberg Streisand Effect” driven by AI presents a significant challenge for companies and individuals alike. On one hand, there’s a legitimate need to protect personal data and prevent its misuse. On the other hand, poorly designed or implemented AI systems can turn this protection into a self-defeating exercise, resulting in greater visibility and scrutiny than before.

    To mitigate this risk, a more thoughtful and holistic approach to AI-driven privacy is crucial. This includes:

    * **Improved AI Training Data:** Training AI on diverse and representative datasets, including edge cases and nuanced situations, is essential for developing more accurate and context-aware algorithms.
    * **Human Oversight:** Implementing human review processes for AI-driven privacy actions can help catch errors and ensure that decisions are aligned with ethical and legal principles.
    * **Transparency and Explainability:** Making AI algorithms more transparent and explainable can help users understand how their data is being processed and identify potential biases or flaws.
    * **Focus on Education and Awareness:** Raising awareness about the potential pitfalls of AI-driven privacy solutions can help users make informed decisions about their data and demand more responsible AI development.

    The “Zuckerberg Streisand Effect” serves as a stark reminder that technology, even when intended for good, can have unintended and often counterproductive consequences. By embracing a more careful and considered approach to AI-driven privacy, we can minimize the risk of amplifying the very information we are trying to protect and build a more trustworthy and responsible digital future.