Etiket: gemini 2.5 pro

  • # Google’ın Yeni Yapay Zeka Modeli Raporu Güvenlik Açısından Yetersiz Bulundu

    ## Google’ın Yeni Yapay Zeka Modeli Raporu Güvenlik Açısından Yetersiz Bulundu

    Google, en güçlü yapay zeka modeli olan Gemini 2.5 Pro’yu piyasaya sürdükten birkaç hafta sonra, modelin dahili güvenlik değerlendirmelerinin sonuçlarını içeren bir teknik rapor yayınladı. Ancak uzmanlar, raporun yeterince detaylı olmadığını ve modelin potansiyel risklerini belirlemeyi zorlaştırdığını belirtiyor.

    Teknik raporlar, şirketlerin yapay zeka sistemleri hakkında her zaman reklamını yapmadığı önemli bilgileri sunar. Bu raporlar, bağımsız araştırma ve güvenlik değerlendirmelerini desteklemek için yapılan iyi niyetli çabalar olarak kabul edilir.

    Google, güvenlik raporlaması konusunda rakiplerinden farklı bir yaklaşım izliyor ve teknik raporları yalnızca bir modelin “deneysel” aşamayı geçtiğini düşündüğünde yayınlıyor. Ayrıca, şirket tüm “tehlikeli yetenek” değerlendirmelerinin bulgularını bu raporlara dahil etmiyor ve bunları ayrı bir denetime saklıyor.

    TechCrunch’ın görüştüğü uzmanlar, Gemini 2.5 Pro raporunun Google’ın “Frontier Safety Framework (FSF)”ünü içermemesinden hayal kırıklığına uğradılar. Google, FSF’yi geçen yıl gelecekte “ciddi zararlara” neden olabilecek yapay zeka yeteneklerini belirleme çabası olarak tanıtmıştı.

    Yapay Zeka Politikası ve Strateji Enstitüsü’nün kurucu ortağı Peter Wildeford, raporun model kamuya sunulduktan haftalar sonra yayınlandığını ve asgari düzeyde bilgi içerdiğini belirtti. Wildeford, Google’ın taahhütlerini yerine getirip getirmediğini doğrulamak ve modellerinin güvenliğini değerlendirmenin bu nedenle mümkün olmadığını söyledi.

    Secure AI Project’in kurucu ortağı Thomas Woodside, Google’ın Gemini 2.5 Pro için bir rapor yayınlamasından memnun olsa da, şirketin zamanında ek güvenlik değerlendirmeleri sunma konusundaki kararlılığından emin değil. Woodside, Google’ın en son tehlikeli yetenek testlerinin sonuçlarını Haziran 2024’te, aynı yılın Şubat ayında duyurulan bir model için yayınladığını hatırlattı.

    Google’ın geçen hafta duyurduğu daha küçük ve daha verimli bir model olan Gemini 2.5 Flash için henüz bir rapor yayınlamaması güven vermiyor. Bir sözcü, Flash için bir raporun “yakında” geleceğini belirtti.

    Woodside, bu durumun Google’ın daha sık güncelleme yayınlamaya başlayacağına dair bir söz olduğunu umduğunu ve güncellemelerin henüz kamuya açıklanmamış modeller için de değerlendirme sonuçlarını içermesi gerektiğini, çünkü bu modellerin de ciddi riskler oluşturabileceğini söyledi.

    Google, modeller için standartlaştırılmış raporlar öneren ilk yapay zeka laboratuvarlarından biri olsa da, son zamanlarda şeffaflık konusunda yetersiz kalmakla suçlanan tek şirket değil. Meta da yeni Llama 4 açık modellerinin benzer şekilde yetersiz bir güvenlik değerlendirmesini yayınladı ve OpenAI, GPT-4.1 serisi için herhangi bir rapor yayınlamamayı tercih etti.

    Google’ın üzerinde, düzenleyicilere yapay zeka güvenliği testleri ve raporlamasında yüksek bir standartı koruyacağına dair verdiği güvenceler var. İki yıl önce Google, ABD hükümetine “kapsam dahilindeki” tüm “önemli” kamuya açık yapay zeka modelleri için güvenlik raporları yayınlayacağını söylemişti. Şirket daha sonra bu taahhüdünü diğer ülkelere de benzer taahhütlerle takip ederek, yapay zeka ürünleri etrafında “kamuya açık şeffaflık” sağlayacağını vaat etti.

    Demokrasi ve Teknoloji Merkezi’nde yapay zeka yönetişimi konusunda kıdemli danışman olan Kevin Bankston, aralıklı ve belirsiz raporlar trendini yapay zeka güvenliği konusunda “dibe doğru bir yarış” olarak nitelendirdi. Bankston, OpenAI gibi rakip laboratuvarların piyasaya sürmeden önce güvenlik test sürelerini aylardan günlere indirdiği haberleriyle birleştiğinde, Google’ın en iyi yapay zeka modeli için bu yetersiz belgeleme, şirketlerin modellerini piyasaya sürmek için yapay zeka güvenliği ve şeffaflığı konusunda dibe doğru bir yarışın üzücü bir hikayesini anlattığını söyledi.

    Google, teknik raporlarında ayrıntılı olarak belirtilmese de, modelleri piyasaya sürmeden önce güvenlik testleri ve “adversarial red teaming” yaptığını belirtiyor.

  • # Google’s Gemini 2.5 Pro Safety Report Under Fire for Lack of Transparency

    ## Google’s Gemini 2.5 Pro Safety Report Under Fire for Lack of Transparency

    Google’s release of its Gemini 2.5 Pro technical report, weeks after the AI model’s launch, has sparked criticism from experts who claim it lacks crucial safety details. The report, intended to showcase internal safety evaluations, is viewed as too sparse, making it difficult to assess the potential risks associated with the model.

    Technical reports are typically seen as a valuable resource, offering insights into AI models that companies might not otherwise publicize. These reports support independent research and safety assessments, fostering transparency within the AI community.

    Google’s approach differs from some competitors, as it only releases these reports after a model is deemed to have moved beyond the “experimental” stage. Furthermore, the company doesn’t include findings from all “dangerous capability” evaluations in these reports, reserving them for separate audits.

    However, several experts speaking with TechCrunch expressed disappointment with the Gemini 2.5 Pro report’s limited scope. Notably, the report fails to mention Google’s own Frontier Safety Framework (FSF), introduced last year to identify future AI capabilities with the potential for “severe harm.”

    Peter Wildeford, co-founder of the Institute for AI Policy and Strategy, stated that the report contains “minimal information” and was released “weeks after the model was already made available to the public.” He argues that this lack of transparency makes it “impossible to verify if Google is living up to its public commitments and thus impossible to assess the safety and security of their models.”

    Thomas Woodside, co-founder of the Secure AI Project, acknowledges the report’s existence but questions Google’s commitment to timely safety evaluations. He points out that the last time Google released results of dangerous capability tests was in June 2024, for a model announced months prior.

    Adding to the concerns, Google has yet to release a report for Gemini 2.5 Flash, a more efficient model announced just last week. A spokesperson has stated that a report for Flash is “coming soon.”

    Woodside hopes that this promise signals a shift towards “more frequent updates,” including “the results of evaluations for models that haven’t been publicly deployed yet.” He stresses that these pre-deployment evaluations are crucial since those models could also pose serious risks.

    Google isn’t alone in facing scrutiny. Meta’s Llama 4 safety evaluation has also been criticized for being “skimpy,” and OpenAI opted not to publish a report for its GPT-4.1 series.

    These instances raise concerns, particularly given Google’s past assurances to regulators to maintain high standards of AI safety testing and reporting. Two years ago, Google pledged to the U.S. government to publish safety reports for all “significant” public AI models “within scope,” and later made similar commitments to other countries.

    Kevin Bankston, a senior adviser on AI governance at the Center for Democracy and Technology, describes the trend of sporadic and vague reports as a “race to the bottom” on AI safety. He notes that this, combined with reports of shortened safety testing times at competing labs, paints a “troubling story of a race to the bottom on AI safety and transparency as companies rush their models to market.”

    Google has stated that, while not detailed in its technical reports, it does conduct safety testing and “adversarial red teaming” for models before release. However, the lack of comprehensive public documentation continues to fuel concerns about the responsible development and deployment of increasingly powerful AI systems.