## OpenAI, ChatGPT’nin Gelecekteki Dalkavukluk Eğilimini Önlemek İçin Değişiklikler Yapma Sözü Verdi
OpenAI, ChatGPT’nin gücünü sağlayan yapay zeka modellerini güncelleme yöntemlerinde değişiklikler yapacağını duyurdu. Bu karar, platformun birçok kullanıcı için aşırı derecede dalkavuk hale gelmesine neden olan bir olayın ardından geldi.
Geçtiğimiz hafta sonu, OpenAI, ChatGPT’nin varsayılan modeli olan GPT-4o’nun geliştirilmiş bir sürümünü yayınladıktan sonra, sosyal medya kullanıcıları ChatGPT’nin aşırı derecede onaylayıcı ve uyumlu bir şekilde yanıt vermeye başladığını fark etti. Bu durum hızla bir meme haline geldi. Kullanıcılar, ChatGPT’nin her türlü sorunlu, tehlikeli karar ve fikri alkışladığı ekran görüntülerini paylaştı.
OpenAI CEO’su Sam Altman, geçtiğimiz Pazar günü X’te yaptığı bir paylaşımda sorunu kabul etti ve OpenAI’nin “en kısa sürede” düzeltmeler üzerinde çalışacağını söyledi. Salı günü ise GPT-4o güncellemesinin geri alındığını ve OpenAI’nin modelin kişiliğine “ek düzeltmeler” getirmek için çalıştığını duyurdu.
Şirket, geçtiğimiz Salı günü bir “ölüm sonrası” analizi yayınladı ve Cuma günü yayınladığı bir blog gönderisinde, model dağıtım sürecinde yapmayı planladığı belirli düzenlemeleri ayrıntılı olarak açıkladı.
OpenAI, bazı ChatGPT kullanıcılarının modelleri piyasaya sürülmeden önce test etmelerine ve geri bildirimde bulunmalarına olanak tanıyan, isteğe bağlı bir “alfa aşaması” başlatmayı planladığını belirtiyor. Şirket ayrıca, ChatGPT’deki modellerde gelecekte yapılacak artımlı güncellemeler için “bilinen sınırlamaların” açıklamalarını ekleyeceğini ve güvenlik inceleme sürecini, kişilik, aldatma, güvenilirlik ve halüsinasyon (yani bir modelin bir şeyler uydurması) gibi “model davranış sorunlarını” resmi olarak “lansmanı engelleyen” endişeler olarak değerlendirecek şekilde ayarlayacağını söylüyor.
OpenAI blog gönderisinde, “İleriye dönük olarak, ChatGPT’deki modellerde yaptığımız güncellemeler hakkında, ‘ince’ olsun ya da olmasın, proaktif olarak iletişim kuracağız” diye yazdı. “Bu sorunlar bugün mükemmel bir şekilde ölçülebilir olmasa bile, A/B testi gibi metrikler iyi görünse bile, vekil ölçümlerine veya niteliksel sinyallere dayanarak lansmanları engellemeyi taahhüt ediyoruz.”
Bu vaat edilen düzeltmeler, giderek daha fazla insanın tavsiye almak için ChatGPT’ye yönelmesiyle geliyor. Yakın tarihli bir ankete göre, ABD’li yetişkinlerin %60’ı danışmanlık veya bilgi almak için ChatGPT’yi kullandı. ChatGPT’ye artan bu bağımlılık ve platformun devasa kullanıcı tabanı, aşırı dalkavukluk gibi sorunlar ortaya çıktığında riskleri artırıyor.
OpenAI, bu haftanın başlarında, kullanıcıların ChatGPT ile olan etkileşimlerini “doğrudan etkilemelerine” olanak tanıyan “gerçek zamanlı geri bildirim” verme yollarını deneyeceğini açıklamıştı. Şirket ayrıca, modelleri dalkavukluktan uzaklaştırmak için teknikleri iyileştireceğini, insanların ChatGPT’de birden fazla model kişiliği arasından seçim yapmasına potansiyel olarak izin vereceğini, ek güvenlik önlemleri oluşturacağını ve dalkavukluğun ötesindeki sorunları belirlemeye yardımcı olmak için değerlendirmeleri genişleteceğini söyledi.
OpenAI blog yazısında, “En büyük derslerden biri, insanların ChatGPT’yi derinlemesine kişisel tavsiyeler için kullanmaya nasıl başladıklarını tam olarak anlamak oldu. Bir yıl önce bile bu kadarını görmemiştik” diye devam etti. “O zamanlar bu birincil bir odak noktası değildi, ancak yapay zeka ve toplum birlikte evrimleştikçe, bu kullanım durumuna büyük özen göstermemiz gerektiği açık hale geldi. Artık güvenlik çalışmalarımızın daha anlamlı bir parçası olacak.”