## Google’ın Yeni Yapay Zeka Modeli Raporu Güvenlik Açısından Yetersiz Bulundu
Google, en güçlü yapay zeka modeli olan Gemini 2.5 Pro’yu piyasaya sürdükten birkaç hafta sonra, modelin dahili güvenlik değerlendirmelerinin sonuçlarını içeren bir teknik rapor yayınladı. Ancak uzmanlar, raporun yeterince detaylı olmadığını ve modelin potansiyel risklerini belirlemeyi zorlaştırdığını belirtiyor.
Teknik raporlar, şirketlerin yapay zeka sistemleri hakkında her zaman reklamını yapmadığı önemli bilgileri sunar. Bu raporlar, bağımsız araştırma ve güvenlik değerlendirmelerini desteklemek için yapılan iyi niyetli çabalar olarak kabul edilir.
Google, güvenlik raporlaması konusunda rakiplerinden farklı bir yaklaşım izliyor ve teknik raporları yalnızca bir modelin “deneysel” aşamayı geçtiğini düşündüğünde yayınlıyor. Ayrıca, şirket tüm “tehlikeli yetenek” değerlendirmelerinin bulgularını bu raporlara dahil etmiyor ve bunları ayrı bir denetime saklıyor.
TechCrunch’ın görüştüğü uzmanlar, Gemini 2.5 Pro raporunun Google’ın “Frontier Safety Framework (FSF)”ünü içermemesinden hayal kırıklığına uğradılar. Google, FSF’yi geçen yıl gelecekte “ciddi zararlara” neden olabilecek yapay zeka yeteneklerini belirleme çabası olarak tanıtmıştı.
Yapay Zeka Politikası ve Strateji Enstitüsü’nün kurucu ortağı Peter Wildeford, raporun model kamuya sunulduktan haftalar sonra yayınlandığını ve asgari düzeyde bilgi içerdiğini belirtti. Wildeford, Google’ın taahhütlerini yerine getirip getirmediğini doğrulamak ve modellerinin güvenliğini değerlendirmenin bu nedenle mümkün olmadığını söyledi.
Secure AI Project’in kurucu ortağı Thomas Woodside, Google’ın Gemini 2.5 Pro için bir rapor yayınlamasından memnun olsa da, şirketin zamanında ek güvenlik değerlendirmeleri sunma konusundaki kararlılığından emin değil. Woodside, Google’ın en son tehlikeli yetenek testlerinin sonuçlarını Haziran 2024’te, aynı yılın Şubat ayında duyurulan bir model için yayınladığını hatırlattı.
Google’ın geçen hafta duyurduğu daha küçük ve daha verimli bir model olan Gemini 2.5 Flash için henüz bir rapor yayınlamaması güven vermiyor. Bir sözcü, Flash için bir raporun “yakında” geleceğini belirtti.
Woodside, bu durumun Google’ın daha sık güncelleme yayınlamaya başlayacağına dair bir söz olduğunu umduğunu ve güncellemelerin henüz kamuya açıklanmamış modeller için de değerlendirme sonuçlarını içermesi gerektiğini, çünkü bu modellerin de ciddi riskler oluşturabileceğini söyledi.
Google, modeller için standartlaştırılmış raporlar öneren ilk yapay zeka laboratuvarlarından biri olsa da, son zamanlarda şeffaflık konusunda yetersiz kalmakla suçlanan tek şirket değil. Meta da yeni Llama 4 açık modellerinin benzer şekilde yetersiz bir güvenlik değerlendirmesini yayınladı ve OpenAI, GPT-4.1 serisi için herhangi bir rapor yayınlamamayı tercih etti.
Google’ın üzerinde, düzenleyicilere yapay zeka güvenliği testleri ve raporlamasında yüksek bir standartı koruyacağına dair verdiği güvenceler var. İki yıl önce Google, ABD hükümetine “kapsam dahilindeki” tüm “önemli” kamuya açık yapay zeka modelleri için güvenlik raporları yayınlayacağını söylemişti. Şirket daha sonra bu taahhüdünü diğer ülkelere de benzer taahhütlerle takip ederek, yapay zeka ürünleri etrafında “kamuya açık şeffaflık” sağlayacağını vaat etti.
Demokrasi ve Teknoloji Merkezi’nde yapay zeka yönetişimi konusunda kıdemli danışman olan Kevin Bankston, aralıklı ve belirsiz raporlar trendini yapay zeka güvenliği konusunda “dibe doğru bir yarış” olarak nitelendirdi. Bankston, OpenAI gibi rakip laboratuvarların piyasaya sürmeden önce güvenlik test sürelerini aylardan günlere indirdiği haberleriyle birleştiğinde, Google’ın en iyi yapay zeka modeli için bu yetersiz belgeleme, şirketlerin modellerini piyasaya sürmek için yapay zeka güvenliği ve şeffaflığı konusunda dibe doğru bir yarışın üzücü bir hikayesini anlattığını söyledi.
Google, teknik raporlarında ayrıntılı olarak belirtilmese de, modelleri piyasaya sürmeden önce güvenlik testleri ve “adversarial red teaming” yaptığını belirtiyor.