Etiket: transparency

  • # Amazon, Tüketicilere Tarifeleri Açıkça Gösterecek: Şeffaflık Adımı mı, Yoksa Sorumluluktan Kaçış mı?

    ## Amazon, Tüketicilere Tarifeleri Açıkça Gösterecek: Şeffaflık Adımı mı, Yoksa Sorumluluktan Kaçış mı?

    Amazon, kullanıcılarına ithal ürünlerdeki tarife maliyetlerini açıkça göstermeye başlayacağını duyurdu. Bu hamle, şirketin platform üzerinden yapılan alışverişlerde şeffaflığı artırma çabası olarak değerlendiriliyor. Ancak bazı uzmanlar, bu uygulamanın Amazon’un sorumluluğunu tüketiciye yükleme girişimi olabileceğini de öne sürüyor.

    Punchbowl News tarafından yayınlanan habere göre, Amazon bu uygulamayla tüketicilerin bir ürünü satın almadan önce karşılaşacakları potansiyel ek maliyetleri daha net bir şekilde görmesini sağlayacak. Bu, özellikle farklı ülkelerden ürün ithal eden satıcılar için önemli bir değişiklik. Daha önce, tarife maliyetleri genellikle ürün fiyatına dahil ediliyor veya kargo esnasında sürpriz bir şekilde ortaya çıkabiliyordu.

    Bu yeni uygulamanın potansiyel faydaları arasında şunlar yer alıyor:

    * **Daha bilinçli alışveriş:** Tüketiciler, toplam maliyeti daha iyi anlayarak, bütçelerine ve ihtiyaçlarına en uygun kararları verebilirler.
    * **Satıcılar arası rekabetin artması:** Tarifeler konusunda şeffaf olan satıcılar, daha rekabetçi fiyatlar sunarak tüketici çekebilirler.
    * **Sürpriz maliyetlerin ortadan kalkması:** Kargo esnasında beklenmedik bir tarife ücretiyle karşılaşma olasılığı azalır.

    Ancak, bu uygulamanın beraberinde getirdiği bazı sorular da mevcut:

    * **Sorumluluk kime ait?** Amazon, tarifelerin hesaplanması ve ödenmesi konusunda herhangi bir sorumluluk üstlenecek mi? Yoksa bu tamamen tüketicinin sorumluluğunda mı olacak?
    * **Karmaşıklık artışı:** Tarifeler, karmaşık ve değişken bir yapıya sahip olabilir. Tüketicilerin bu karmaşık sistemi anlaması ve doğru hesaplamalar yapması kolay olmayabilir.
    * **Rekabet dezavantajı:** Tarife maliyetlerini açıkça gösteren satıcılar, diğer satıcılara göre rekabet dezavantajı yaşayabilirler.

    Bu hamle, Amazon’un artan düzenleyici baskısı ve kamuoyunda şeffaflık beklentisiyle de yakından ilişkili. Son yıllarda, Amazon gibi büyük teknoloji şirketleri, vergi uygulamaları, rekabet ihlalleri ve tüketicinin korunması konularında yoğun bir şekilde inceleniyor.

    Sonuç olarak, Amazon’un tarife maliyetlerini gösterme kararı, hem olumlu hem de eleştirilmesi gereken yönleri olan bir adım. Bu uygulamanın tüketiciler üzerindeki gerçek etkileri ve Amazon’un bu konudaki sorumluluğu zamanla daha netleşecektir. Ancak şurası kesin ki, e-ticaret platformlarında şeffaflığın artması, tüketicilerin lehine olacak bir gelişme.

  • # Shining a Light on Imports: Amazon to Display Tariff Costs for Consumers

    ## Shining a Light on Imports: Amazon to Display Tariff Costs for Consumers

    Amazon is taking steps to increase transparency around imported goods, announcing plans to display tariff costs directly to consumers. This move, reported by Punchbowl News, aims to provide shoppers with a clearer understanding of the factors contributing to the final price of items sold on its platform. The development, highlighting Amazon’s commitment to informing its vast customer base, has garnered significant attention, generating over 100 comments and climbing on news aggregators.

    For years, consumers have been largely unaware of the impact of tariffs on the cost of goods they purchase online. While retailers absorb these costs and factor them into the final price, the direct connection between tariffs and the product’s price tag has remained obscured. This new initiative from Amazon promises to shed light on this previously hidden element.

    The specific details of how Amazon intends to implement this display are still emerging. However, the implication is clear: consumers will gain a better understanding of the portion of a product’s price attributed to import taxes. This transparency could have a number of potential impacts.

    Firstly, it could empower consumers to make more informed purchasing decisions. With tariff costs clearly visible, shoppers may choose to opt for domestically produced alternatives or explore similar products from countries with more favorable trade agreements.

    Secondly, it could influence consumer perception of trade policies. By directly associating tariffs with the price they pay, consumers may become more aware of the broader implications of international trade agreements and debates surrounding them. This could, in turn, lead to a more informed and engaged public discourse on trade policy.

    Finally, the move could pressure other online retailers to follow suit. As Amazon sets a precedent for transparency, competitors may feel compelled to adopt similar practices to remain competitive and maintain consumer trust.

    While the long-term effects of this initiative remain to be seen, Amazon’s decision to display tariff costs marks a significant step toward greater price transparency in online retail. By providing consumers with a clearer picture of the factors influencing product pricing, Amazon is empowering shoppers and potentially reshaping the landscape of online commerce. The unfolding details of this implementation will undoubtedly be watched closely by industry observers and consumers alike.

  • # Google’ın Yeni Yapay Zeka Modeli Raporu Güvenlik Açısından Yetersiz Bulundu

    ## Google’ın Yeni Yapay Zeka Modeli Raporu Güvenlik Açısından Yetersiz Bulundu

    Google, en güçlü yapay zeka modeli olan Gemini 2.5 Pro’yu piyasaya sürdükten birkaç hafta sonra, modelin dahili güvenlik değerlendirmelerinin sonuçlarını içeren bir teknik rapor yayınladı. Ancak uzmanlar, raporun yeterince detaylı olmadığını ve modelin potansiyel risklerini belirlemeyi zorlaştırdığını belirtiyor.

    Teknik raporlar, şirketlerin yapay zeka sistemleri hakkında her zaman reklamını yapmadığı önemli bilgileri sunar. Bu raporlar, bağımsız araştırma ve güvenlik değerlendirmelerini desteklemek için yapılan iyi niyetli çabalar olarak kabul edilir.

    Google, güvenlik raporlaması konusunda rakiplerinden farklı bir yaklaşım izliyor ve teknik raporları yalnızca bir modelin “deneysel” aşamayı geçtiğini düşündüğünde yayınlıyor. Ayrıca, şirket tüm “tehlikeli yetenek” değerlendirmelerinin bulgularını bu raporlara dahil etmiyor ve bunları ayrı bir denetime saklıyor.

    TechCrunch’ın görüştüğü uzmanlar, Gemini 2.5 Pro raporunun Google’ın “Frontier Safety Framework (FSF)”ünü içermemesinden hayal kırıklığına uğradılar. Google, FSF’yi geçen yıl gelecekte “ciddi zararlara” neden olabilecek yapay zeka yeteneklerini belirleme çabası olarak tanıtmıştı.

    Yapay Zeka Politikası ve Strateji Enstitüsü’nün kurucu ortağı Peter Wildeford, raporun model kamuya sunulduktan haftalar sonra yayınlandığını ve asgari düzeyde bilgi içerdiğini belirtti. Wildeford, Google’ın taahhütlerini yerine getirip getirmediğini doğrulamak ve modellerinin güvenliğini değerlendirmenin bu nedenle mümkün olmadığını söyledi.

    Secure AI Project’in kurucu ortağı Thomas Woodside, Google’ın Gemini 2.5 Pro için bir rapor yayınlamasından memnun olsa da, şirketin zamanında ek güvenlik değerlendirmeleri sunma konusundaki kararlılığından emin değil. Woodside, Google’ın en son tehlikeli yetenek testlerinin sonuçlarını Haziran 2024’te, aynı yılın Şubat ayında duyurulan bir model için yayınladığını hatırlattı.

    Google’ın geçen hafta duyurduğu daha küçük ve daha verimli bir model olan Gemini 2.5 Flash için henüz bir rapor yayınlamaması güven vermiyor. Bir sözcü, Flash için bir raporun “yakında” geleceğini belirtti.

    Woodside, bu durumun Google’ın daha sık güncelleme yayınlamaya başlayacağına dair bir söz olduğunu umduğunu ve güncellemelerin henüz kamuya açıklanmamış modeller için de değerlendirme sonuçlarını içermesi gerektiğini, çünkü bu modellerin de ciddi riskler oluşturabileceğini söyledi.

    Google, modeller için standartlaştırılmış raporlar öneren ilk yapay zeka laboratuvarlarından biri olsa da, son zamanlarda şeffaflık konusunda yetersiz kalmakla suçlanan tek şirket değil. Meta da yeni Llama 4 açık modellerinin benzer şekilde yetersiz bir güvenlik değerlendirmesini yayınladı ve OpenAI, GPT-4.1 serisi için herhangi bir rapor yayınlamamayı tercih etti.

    Google’ın üzerinde, düzenleyicilere yapay zeka güvenliği testleri ve raporlamasında yüksek bir standartı koruyacağına dair verdiği güvenceler var. İki yıl önce Google, ABD hükümetine “kapsam dahilindeki” tüm “önemli” kamuya açık yapay zeka modelleri için güvenlik raporları yayınlayacağını söylemişti. Şirket daha sonra bu taahhüdünü diğer ülkelere de benzer taahhütlerle takip ederek, yapay zeka ürünleri etrafında “kamuya açık şeffaflık” sağlayacağını vaat etti.

    Demokrasi ve Teknoloji Merkezi’nde yapay zeka yönetişimi konusunda kıdemli danışman olan Kevin Bankston, aralıklı ve belirsiz raporlar trendini yapay zeka güvenliği konusunda “dibe doğru bir yarış” olarak nitelendirdi. Bankston, OpenAI gibi rakip laboratuvarların piyasaya sürmeden önce güvenlik test sürelerini aylardan günlere indirdiği haberleriyle birleştiğinde, Google’ın en iyi yapay zeka modeli için bu yetersiz belgeleme, şirketlerin modellerini piyasaya sürmek için yapay zeka güvenliği ve şeffaflığı konusunda dibe doğru bir yarışın üzücü bir hikayesini anlattığını söyledi.

    Google, teknik raporlarında ayrıntılı olarak belirtilmese de, modelleri piyasaya sürmeden önce güvenlik testleri ve “adversarial red teaming” yaptığını belirtiyor.

  • # Google’s Gemini 2.5 Pro Safety Report Under Fire for Lack of Transparency

    ## Google’s Gemini 2.5 Pro Safety Report Under Fire for Lack of Transparency

    Google’s release of its Gemini 2.5 Pro technical report, weeks after the AI model’s launch, has sparked criticism from experts who claim it lacks crucial safety details. The report, intended to showcase internal safety evaluations, is viewed as too sparse, making it difficult to assess the potential risks associated with the model.

    Technical reports are typically seen as a valuable resource, offering insights into AI models that companies might not otherwise publicize. These reports support independent research and safety assessments, fostering transparency within the AI community.

    Google’s approach differs from some competitors, as it only releases these reports after a model is deemed to have moved beyond the “experimental” stage. Furthermore, the company doesn’t include findings from all “dangerous capability” evaluations in these reports, reserving them for separate audits.

    However, several experts speaking with TechCrunch expressed disappointment with the Gemini 2.5 Pro report’s limited scope. Notably, the report fails to mention Google’s own Frontier Safety Framework (FSF), introduced last year to identify future AI capabilities with the potential for “severe harm.”

    Peter Wildeford, co-founder of the Institute for AI Policy and Strategy, stated that the report contains “minimal information” and was released “weeks after the model was already made available to the public.” He argues that this lack of transparency makes it “impossible to verify if Google is living up to its public commitments and thus impossible to assess the safety and security of their models.”

    Thomas Woodside, co-founder of the Secure AI Project, acknowledges the report’s existence but questions Google’s commitment to timely safety evaluations. He points out that the last time Google released results of dangerous capability tests was in June 2024, for a model announced months prior.

    Adding to the concerns, Google has yet to release a report for Gemini 2.5 Flash, a more efficient model announced just last week. A spokesperson has stated that a report for Flash is “coming soon.”

    Woodside hopes that this promise signals a shift towards “more frequent updates,” including “the results of evaluations for models that haven’t been publicly deployed yet.” He stresses that these pre-deployment evaluations are crucial since those models could also pose serious risks.

    Google isn’t alone in facing scrutiny. Meta’s Llama 4 safety evaluation has also been criticized for being “skimpy,” and OpenAI opted not to publish a report for its GPT-4.1 series.

    These instances raise concerns, particularly given Google’s past assurances to regulators to maintain high standards of AI safety testing and reporting. Two years ago, Google pledged to the U.S. government to publish safety reports for all “significant” public AI models “within scope,” and later made similar commitments to other countries.

    Kevin Bankston, a senior adviser on AI governance at the Center for Democracy and Technology, describes the trend of sporadic and vague reports as a “race to the bottom” on AI safety. He notes that this, combined with reports of shortened safety testing times at competing labs, paints a “troubling story of a race to the bottom on AI safety and transparency as companies rush their models to market.”

    Google has stated that, while not detailed in its technical reports, it does conduct safety testing and “adversarial red teaming” for models before release. However, the lack of comprehensive public documentation continues to fuel concerns about the responsible development and deployment of increasingly powerful AI systems.