## OpenAI, Yeni Yapay Zeka Modelleriyle Biyoriskleri Önlemeye Odaklanıyor
OpenAI, geliştirdiği en son yapay zeka (YZ) modelleri o3 ve o4-mini’nin potansiyel biyorisk oluşturma potansiyelini engellemek için yeni bir güvenlik sistemi geliştirdiğini duyurdu. Bu sistem, özellikle biyolojik ve kimyasal tehditlerle ilgili istemleri izleyerek, bu modellerin kötü niyetli kişilere zarar verici saldırılar konusunda yol gösterebilecek tavsiyelerde bulunmasını engellemeyi amaçlıyor.
Şirketin güvenlik raporuna göre, o3 ve o4-mini modelleri, OpenAI’nin önceki modellerine kıyasla yeteneklerinde önemli bir artışı temsil ediyor. Bu durum, kötü aktörlerin elinde yeni riskler oluşturabileceği anlamına geliyor. OpenAI’nin iç değerlendirmelerine göre o3, özellikle belirli biyolojik tehditlerin oluşturulmasıyla ilgili soruları yanıtlama konusunda daha yetenekli. Bu nedenle, OpenAI, “güvenlik odaklı bir akıl yürütme monitörü” olarak tanımladığı bu yeni izleme sistemini oluşturdu.
Bu monitör, OpenAI’nin içerik politikaları hakkında akıl yürütmek üzere özel olarak eğitildi ve o3 ve o4-mini üzerinde çalışıyor. Biyolojik ve kimyasal risklerle ilgili istemleri belirleyerek modellerin bu konularda tavsiye vermeyi reddetmesini sağlıyor.
OpenAI, bir temel oluşturmak için “kırmızı takım” üyelerinin o3 ve o4-mini’den gelen “güvensiz” biyoriskle ilgili konuşmaları işaretlemek için yaklaşık 1000 saat harcadığını belirtiyor. OpenAI’nin güvenlik monitörünün “engelleme mantığını” simüle ettiği bir test sırasında, modellerin riskli istemlere %98,7 oranında yanıt vermeyi reddettiği tespit edildi.
Ancak OpenAI, bu testin, monitör tarafından engellendikten sonra yeni istemler deneyecek kişileri hesaba katmadığını kabul ediyor. Bu nedenle şirket, insan gözetimine de güvenmeye devam edeceğini vurguluyor.
OpenAI’ye göre o3 ve o4-mini, biyoriskler için “yüksek risk” eşiğini aşmıyor. Bununla birlikte, o1 ve GPT-4 ile karşılaştırıldığında, o3 ve o4-mini’nin erken versiyonlarının biyolojik silah geliştirme konusunda daha faydalı olduğu belirtiliyor.
OpenAI, modellerinin kimyasal ve biyolojik tehdit geliştirmeyi kötü niyetli kullanıcılar için nasıl kolaylaştırabileceğini aktif olarak izliyor. Şirket, GPT-4o’nun yerel görüntü oluşturucusunun çocuk istismarı materyali (CSAM) oluşturmasını önlemek için de o3 ve o4-mini için kullanılanlara benzer bir akıl yürütme monitörü kullandığını ifade ediyor.
Bununla birlikte, bazı araştırmacılar OpenAI’nin güvenliğe gerektiği kadar öncelik vermediği konusunda endişelerini dile getiriyorlar. Şirketin kırmızı takım ortaklarından Metr, o3’ü aldatıcı davranışlar için bir kıyaslama üzerinde test etmek için nispeten az zamanı olduğunu söyledi. Ayrıca OpenAI, bu hafta piyasaya sürülen GPT-4.1 modeli için bir güvenlik raporu yayınlamamaya karar verdi.
OpenAI’nin bu adımı, yapay zeka güvenliği konusundaki artan endişeleri ele alma ve yapay zeka modellerinin potansiyel kötüye kullanımını engelleme çabalarının bir parçası olarak değerlendirilebilir. Ancak, bazı uzmanlar bu tür önlemlerin yeterli olup olmadığı ve yapay zeka geliştirme sürecinde güvenlik önlemlerinin ne kadar öncelikli tutulması gerektiği konusunda tartışmalara devam ediyor.