Etiket: artificial intelligence

  • # Beyaz Saray’a Sunulan Yapay Zeka Politikası Yorumları: Telif Hakları ve Tarifeler Ön Planda

    ## Beyaz Saray’a Sunulan Yapay Zeka Politikası Yorumları: Telif Hakları ve Tarifeler Ön Planda

    Beyaz Saray’ın yapay zeka (YZ) politikası oluşturma sürecinde, kamuoyundan gelen geri bildirimler büyük önem taşıyor. Bu kapsamda, bireyler, sektör temsilcileri ve yerel yönetimler, “YZ Eylem Planı” olarak da bilinen ulusal YZ politikasına ilişkin 10.000’den fazla yorum sundu. Beyaz Saray Bilim ve Teknoloji Politikaları Ofisi (OSTP), bu geri bildirimlerin metinlerini 18.480 sayfayı bulan bir PDF dokümanı olarak yayınladı.

    Yorumlar, telif haklarından YZ veri merkezlerinin çevresel etkilerine kadar geniş bir yelpazede konulara değiniyor. Bu geri bildirimler, Donald Trump yönetimi ve müttefiklerinin ABD hükümetinin YZ önceliklerini yeniden düzenlediği bir dönemde geldi.

    Ocak ayında Başkan Trump, eski Başkan Joe Biden’ın YZ Yürütme Emrini iptal etti. Biden’ın emri, Ulusal Standartlar ve Teknoloji Enstitüsü’ne (NIST), şirketlerin modellerdeki hataları (önyargılar dahil) belirlemesine ve düzeltmesine yardımcı olacak kılavuzlar hazırlama talimatı veriyordu. Trump’a yakın eleştirmenler, emrin raporlama gerekliliklerinin ağır olduğunu ve şirketleri ticari sırlarını ifşa etmeye zorladığını savundu.

    YZ Yürütme Emrini iptal ettikten kısa bir süre sonra Trump, federal kurumları “ideolojik önyargıdan arınmış”, “insan gelişimini, ekonomik rekabeti ve ulusal güvenliği” teşvik eden YZ gelişimini desteklemeye yönlendiren bir emir imzaladı. Önemli bir nokta olarak, Trump’ın emri, Biden’ın girişiminin temel ilkelerinden biri olan YZ ayrımcılığıyla mücadeleden bahsetmedi.

    Beyaz Saray’a sunulan yorumlar, YZ yarışında nelerin tehlikede olduğunu açıkça ortaya koyuyor.

    Birçok yorumcu, YZ’nin yaratıcıların eserleri üzerinde eğitildiğini ve bu kişilerin gönülsüz katkıları için tazmin edilmediğini belirterek, YZ’nin sömürücü olduğunu iddia etti ve Trump yönetiminden telif hakkı düzenlemesini güçlendirmesini istedi. Karşı tarafta ise, Andreessen Horowitz gibi risk sermayesi şirketleri, hak sahiplerini YZ gelişiminin önünde engeller çıkarmakla suçladı.

    Google ve OpenAI gibi bazı YZ şirketleri de, YZ Eylem Planı’na ilişkin daha önceki yorumlarında, YZ eğitimi konusunda daha dostane kurallar talep etmişti.

    Americans for Prosperity, The Future of Life Institute ve American Academy of Nursing gibi kuruluşlardan gelen dilekçeler, federal hükümetin bilimsel hibeleri azalttığı bir dönemde araştırmalara yapılan yatırımların önemini vurguladı. YZ uzmanları, Trump yönetiminin bilimsel hibelerde yaptığı son kesintileri ve özellikle milyarder Elon Musk’ın Hükümet Verimliliği Departmanı’nın savunduğu kesintileri eleştirdi.

    YZ Eylem Planı’na ilişkin bazı yorumcular, Trump yönetiminin yabancı mallara uyguladığı geniş kapsamlı tarifelere değinerek, bunların yerel YZ çabalarına zarar verebileceğini öne sürdü. Veri merkezi sektörünü temsil eden bir ticaret birliği olan Data Center Coalition, altyapı bileşenlerine uygulanan tarifelerin ABD’deki YZ yatırımlarını “sınırlayacağını ve yavaşlatacağını” belirtiyor. Başka bir yerde ise, üyeleri arasında Amazon, Intel ve Microsoft’un da bulunduğu bir savunuculuk grubu olan Information Technology Industry Council, “tüketicilere zarar veren ticaret savaşlarını tırmandırmadan yerel endüstrileri koruyan” “akıllı” tarifeler çağrısında bulundu.

    Trump’ın yakın sırdaşlarının aklında olan bir konu olan “YZ sansürü”nden ise çok az yorumda bahsedildi. Elon Musk ve kripto ve YZ “çarı” David Sacks, popüler sohbet robotlarının muhafazakar görüşleri sansürlediğini iddia etti. Sacks özellikle ChatGPT’yi politik olarak hassas konular hakkında gerçeğe aykırı olmakla suçladı.

    Gerçekte, YZ’deki önyargı çözümü zor teknik bir sorundur. Musk’ın YZ şirketi xAI bile, bazı siyasi görüşleri diğerlerine göre desteklemeyen bir sohbet robotu oluşturmakta zorlanmıştır.

    Başkan Trump, son aylarda bir YZ politika ekibi oluşturma çabalarını artırdı.

    Mart ayında Senato, Trump’ın OSTP direktörü için seçtiği Michael Kratsios’u onayladı. Kratsios, Trump’ın ilk döneminde OSTP’de YZ politikasına odaklanmıştı. Geçtiğimiz yılın sonlarına doğru Trump, eski risk sermayedarı Sriram Krishnan’ı Beyaz Saray’ın YZ’den sorumlu kıdemli politika danışmanı olarak atadı.

    Bu makale, Beyaz Saray’ın yapay zeka politikalarına yönelik kamuoyu yorumlarını ve bu yorumların telif hakları, tarifeler ve ideolojik önyargılar gibi önemli konulara nasıl ışık tuttuğunu özetlemektedir. Trump yönetiminin bu geri bildirimleri dikkate alıp almayacağı ve yeni politikaların sektör üzerindeki etkisi merakla bekleniyor.

  • # AI Policy in the Crosshairs: Public Comments to White House Reveal Diverse Concerns

    ## AI Policy in the Crosshairs: Public Comments to White House Reveal Diverse Concerns

    The White House’s ongoing effort to shape a national AI policy, dubbed the AI Action Plan, has drawn a flood of public commentary, exposing a diverse range of concerns from copyright infringement to the impact of tariffs on AI development. Over 10,000 submissions, totaling a staggering 18,480 pages, were recently published by the Office of Science and Technology Policy (OSTP), reflecting the high stakes and multifaceted challenges of governing artificial intelligence.

    The comments arrive at a crucial juncture, as President Trump and his administration actively reshape the U.S. government’s AI priorities. This follows Trump’s repeal of former President Biden’s AI Executive Order, which aimed to guide companies in identifying and mitigating flaws, including biases, in their AI models. Critics allied with Trump argued that the order’s reporting requirements were overly burdensome and could force companies to disclose trade secrets.

    In place of Biden’s order, Trump signed a new directive urging federal agencies to foster AI development “free from ideological bias” and focused on “human flourishing, economic competitiveness, and national security.” Notably absent was any mention of combating AI discrimination, a core principle of the previous administration’s approach.

    The public comments underscore the various challenges confronting AI policy. One prominent theme revolves around copyright. Many commenters argue that AI systems are exploitatively trained on the work of creators who receive no compensation for their contributions, leading to calls for stronger copyright regulations. In contrast, venture capital firms like Andreessen Horowitz suggest that rightsholders are hindering AI progress with excessive restrictions.

    Leading AI companies such as Google and OpenAI have also weighed in, advocating for more lenient rules regarding AI training. They argue that current regulations stifle innovation and hinder their ability to develop cutting-edge AI technologies.

    Beyond copyright, commenters have also raised concerns about the impact of federal spending and trade policies on AI development. Organizations like Americans for Prosperity and The Future of Life Institute emphasize the need for sustained investments in AI research, particularly in light of recent cuts to scientific grants championed by Elon Musk’s Department of Government Efficiency.

    The Trump administration’s tariffs on foreign goods have also come under scrutiny. The Data Center Coalition, representing the data center industry, warns that tariffs on essential infrastructure components could “limit and slow” U.S. AI investments. The Information Technology Industry Council, whose members include Amazon, Intel, and Microsoft, advocates for “smart” tariffs that protect domestic industries without triggering harmful trade wars.

    Interestingly, the issue of “AI censorship,” a key talking point for many of Trump’s allies, received relatively little attention in the public comments. Figures like Elon Musk and David Sacks have repeatedly accused popular chatbots of censoring conservative viewpoints, highlighting the ongoing debate over bias in AI systems.

    The reality, however, is that bias in AI is a complex technical problem, as evidenced by Musk’s own AI company, xAI, struggling to create a chatbot free of political leanings.

    As the White House continues to formulate its AI policy, the public comments offer a valuable snapshot of the diverse perspectives and competing interests shaping the future of artificial intelligence in the United States. The administration’s recent appointments of Michael Kratsios as director of the OSTP and Sriram Krishnan as senior policy advisor for AI signal a growing focus on this critical area, but the challenges of balancing innovation, ethical considerations, and economic competitiveness remain significant.

  • # OpenAI Launches a More Accessible, ‘Lightweight’ Version of its ChatGPT Deep Research Tool

    ## OpenAI Launches a More Accessible, ‘Lightweight’ Version of its ChatGPT Deep Research Tool

    OpenAI is democratizing access to its powerful deep research capabilities with the introduction of a new, “lightweight” version of its ChatGPT research tool. Announced today, the updated tool is designed to scour the web and compile comprehensive research reports on a wide array of topics. It’s now available to ChatGPT Plus, Team, and Pro subscribers, and will soon be accessible to free ChatGPT users.

    This new version is powered by a streamlined iteration of OpenAI’s O4-mini model. While it may not possess the full capabilities of the original “full” deep research tool, OpenAI emphasizes that it’s significantly more cost-effective to operate. This efficiency allows the company to expand usage limits, making in-depth research more readily available to a broader user base.

    “Responses will typically be shorter while maintaining the depth and quality you’ve come to expect,” OpenAI stated in a series of posts on X. The company also clarified that users will seamlessly transition to the lightweight version once the usage limits for the original deep research tool are reached.

    This move comes amid a surge in the development of AI-powered research tools across various platforms. Competitors like Google’s Gemini, Microsoft’s Copilot, and xAI’s Grok have also launched similar features, all driven by sophisticated AI reasoning models. These models excel at problem-solving and fact-checking, crucial skills for conducting thorough and accurate research.

    Looking ahead, OpenAI plans to extend access to the lightweight deep research tool to Enterprise and educational users next week, offering the same usage limits as Team users. This expansion underscores OpenAI’s commitment to providing accessible and powerful AI tools for a wide range of applications. By offering a more affordable and scalable solution, OpenAI aims to empower more users to leverage the power of AI for in-depth research and analysis.

  • # OpenAI, ChatGPT Derin Araştırma Aracının “Hafif” Versiyonunu Kullanıma Sundu

    ## OpenAI, ChatGPT Derin Araştırma Aracının “Hafif” Versiyonunu Kullanıma Sundu

    OpenAI, web’i tarayarak belirli bir konuda araştırma raporları derleyen ChatGPT derin araştırma aracının yeni ve “hafif” bir sürümünü ChatGPT Plus, Team ve Pro kullanıcılarına sunuyor. Şirket, bu duyuruyu Perşembe günü yaptı.

    Bugünden itibaren ücretsiz ChatGPT kullanıcılarına da sunulacak olan bu yeni hafif derin araştırma özelliği, OpenAI’ın o4-mini modelinin bir sürümü tarafından destekleniyor. OpenAI, bu sürümün “tam” derin araştırma kadar yetenekli olmadığını, ancak sunulmasının daha ucuz olduğunu ve bu sayede kullanım limitlerini artırabildiklerini belirtiyor.

    OpenAI, X platformunda yaptığı bir dizi paylaşımda, “Yanıtlar genellikle beklediğiniz derinlik ve kaliteyi korurken daha kısa olacaktır” dedi. “Orijinal derin araştırma sürümünün limitlerine ulaşıldığında, sorgular otomatik olarak hafif sürüme yönlendirilecektir.”

    Son zamanlarda Google’ın Gemini’si, Microsoft’un Copilot’u ve xAI’nin Grok’u gibi sohbet robotlarında bir dizi derin araştırma aracı piyasaya sürüldü. Bu araçları destekleyen ise, sorunları analiz etme ve kendi kendini kontrol etme yeteneğine sahip olan akıl yürütme yapay zeka modelleri. Bu yetenekler, bir konu hakkında derinlemesine araştırma yapmak için oldukça önemli.

    OpenAI, ChatGPT’nin hafif derin araştırma özelliğinin, gelecek hafta Enterprise ve eğitim kullanıcılarına Team kullanıcılarıyla aynı kullanım seviyelerinde sunulacağını da ekledi.

  • # Anthropic Aims to Demystify AI: CEO Sets 2027 Target for “Interpretability”

    ## Anthropic Aims to Demystify AI: CEO Sets 2027 Target for “Interpretability”

    Anthropic CEO Dario Amodei has issued a bold challenge to the AI industry: unravel the inner workings of complex AI models. In a newly published essay, Amodei underscores the current lack of understanding surrounding the decision-making processes of even the most advanced AI systems. His proposed solution? An ambitious goal for Anthropic to achieve reliable detection of most AI model problems by 2027.

    Amodei doesn’t shy away from acknowledging the enormity of the task. In his essay, titled “The Urgency of Interpretability,” he highlights Anthropic’s initial progress in tracing how AI models arrive at conclusions. However, he stresses that substantially more research is necessary to truly decode these systems as they become increasingly powerful.

    “I am very concerned about deploying such systems without a better handle on interpretability,” Amodei wrote. “These systems will be absolutely central to the economy, technology, and national security, and will be capable of so much autonomy that I consider it basically unacceptable for humanity to be totally ignorant of how they work.”

    Anthropic has positioned itself as a frontrunner in the emerging field of mechanistic interpretability. This field seeks to lift the veil on AI models, transforming them from “black boxes” into transparent, understandable entities. Despite rapid advancements in AI performance, the industry still struggles to comprehend precisely *why* these systems make specific choices.

    The problem is exemplified by recent developments at OpenAI. Their new reasoning AI models, o3 and o4-mini, exhibit improved performance on certain tasks, yet paradoxically suffer from increased “hallucinations” – instances where the AI generates factually incorrect or nonsensical information. Crucially, OpenAI admits it doesn’t understand the root cause of this behavior.

    Amodei elaborated on the issue, stating, “When a generative AI system does something, like summarize a financial document, we have no idea, at a specific or precise level, why it makes the choices it does — why it chooses certain words over others, or why it occasionally makes a mistake despite usually being accurate.”

    Adding another layer of complexity, Amodei cites Anthropic co-founder Chris Olah, who argues that AI models are “grown more than they are built.” This analogy highlights the somewhat organic and often unpredictable nature of AI development. Researchers have discovered methods to enhance AI intelligence, but the underlying mechanisms remain largely opaque.

    Looking ahead, Amodei cautions against reaching Artificial General Intelligence (AGI) – which he playfully refers to as “a country of geniuses in a data center” – without a comprehensive understanding of how these models function. While he previously suggested AGI could be achieved as early as 2026 or 2027, he believes our comprehension of AI lags significantly behind.

    Anthropic’s long-term vision involves developing the capacity to conduct “brain scans” or “MRIs” of advanced AI models. These comprehensive checkups would aim to identify a spectrum of potential issues, including propensities for deception, power-seeking behaviors, and other inherent weaknesses. While acknowledging that such capabilities could take five to ten years to develop, Amodei emphasizes that they will be crucial for the safe testing and deployment of Anthropic’s future AI models.

    Already, Anthropic has achieved noteworthy breakthroughs in interpretability research. The company has developed methods to trace an AI model’s “thinking pathways” through what they call “circuits.” One such circuit identified by Anthropic allows AI models to understand the relationship between U.S. cities and their respective states. Although only a handful of these circuits have been discovered to date, the company estimates that millions exist within complex AI models.

    Demonstrating its commitment, Anthropic recently made its first investment in a startup focused on interpretability. While currently viewed as a safety-focused research area, Amodei believes that understanding AI decision-making processes could ultimately provide a commercial advantage.

    Amodei’s essay extends a call to action to industry peers like OpenAI and Google DeepMind, urging them to ramp up their own interpretability research efforts. Beyond gentle encouragement, he advocates for “light-touch” government regulations that incentivize interpretability research, such as mandatory disclosure of safety and security practices. Furthermore, Amodei suggests implementing export controls on chips to China to mitigate the risks of an uncontrolled, global AI arms race.

    Anthropic has consistently differentiated itself from other major players by prioritizing safety. The company notably offered measured support and recommendations for California’s SB 1047, a controversial AI safety bill, while other tech companies largely opposed it.

    Ultimately, Anthropic’s initiative signals a shift towards prioritizing understanding *how* AI works, rather than solely focusing on increasing its capabilities. The company’s commitment to “opening the black box” could pave the way for a more transparent, trustworthy, and beneficial future for artificial intelligence.

  • # Anthropic CEO’sundan Cesur Hedef: Yapay Zeka Modellerinin Kara Kutusunu 2027’ye Kadar Açmak

    ## Anthropic CEO’sundan Cesur Hedef: Yapay Zeka Modellerinin Kara Kutusunu 2027’ye Kadar Açmak

    Yapay zeka (YZ) alanındaki gelişmeler baş döndürücü bir hızla ilerlerken, bu teknolojilerin iç işleyişi hala büyük ölçüde bir sır perdesi ardında. Anthropic CEO’su Dario Amodei, bu durumu değiştirmeyi hedefliyor. Yayımladığı bir makalede, dünyanın önde gelen YZ modellerinin iç mekanizmalarına dair araştırmacıların ne kadar az bilgi sahibi olduğuna dikkat çeken Amodei, Anthropic için 2027 yılına kadar YZ modellerindeki sorunların çoğunu güvenilir bir şekilde tespit edebilme gibi iddialı bir hedef belirledi.

    “Yorumlanabilirliğin Aciliyeti” başlıklı makalesinde Amodei, bu hedefin zorluğunu kabul ediyor. Anthropic’in modellerin cevaplarına nasıl ulaştığını izleme konusunda erken aşamada atılımlar gerçekleştirdiğini belirtirken, bu sistemler güçlendikçe onları çözmek için çok daha fazla araştırmaya ihtiyaç duyulduğunun altını çiziyor.

    Amodei, “Yorumlanabilirlik konusunda daha iyi bir hakimiyet olmadan bu tür sistemleri devreye sokmaktan çok endişeliyim,” ifadelerini kullanıyor. “Bu sistemler ekonomi, teknoloji ve ulusal güvenlik için kesinlikle merkezi olacak ve o kadar fazla özerkliğe sahip olacaklar ki, insanlığın nasıl çalıştıkları konusunda tamamen cahil olmasını temelde kabul edilemez buluyorum.”

    Anthropic, YZ modellerinin kara kutusunu açmayı ve neden belirli kararlar aldıklarını anlamayı amaçlayan mekanistik yorumlanabilirlik alanında öncü şirketlerden biri. Teknoloji endüstrisinin YZ modellerinin performansındaki hızlı gelişmelere rağmen, bu sistemlerin kararlara nasıl vardığı hakkında hala nispeten az fikrimiz var.

    Örneğin, OpenAI kısa süre önce bazı görevlerde daha iyi performans gösteren, ancak aynı zamanda diğer modellerine göre daha fazla “halüsinasyon” gören yeni akıl yürütme YZ modelleri olan o3 ve o4-mini’yi piyasaya sürdü. Şirket, bunun neden olduğunu bilmiyor.

    Amodei, “Üretken bir YZ sistemi, bir finansal belgeyi özetlemek gibi bir şey yaptığında, neden belirli kelimeleri diğerlerine tercih ettiğini veya neden genellikle doğru olmasına rağmen zaman zaman hata yaptığını belirli veya kesin bir düzeyde bilmiyoruz,” diyor.

    Makalede Amodei, Anthropic’in kurucu ortağı Chris Olah’ın YZ modellerinin “inşa edilmekten çok büyütüldüğünü” söylediğini belirtiyor. Başka bir deyişle, YZ araştırmacıları YZ model zekasını geliştirmenin yollarını bulmuşlardır, ancak nedenini tam olarak bilmiyorlar.

    Amodei’ye göre, bu modellerin nasıl çalıştığını anlamadan Genel Yapay Zeka’ya (AGI) ulaşmak tehlikeli olabilir. Daha önceki bir makalesinde Amodei, teknoloji sektörünün 2026 veya 2027 yılına kadar böyle bir kilometre taşına ulaşabileceğini iddia etmişti, ancak bu YZ modellerini tam olarak anlamaktan çok daha uzakta olduğumuza inanıyor.

    Uzun vadede Anthropic, esasen son teknoloji YZ modellerinin “beyin taramalarını” veya “MR’larını” yapmak istiyor. Bu kontroller, YZ modellerindeki yalan söyleme veya güç arama eğilimleri veya diğer zayıflıklar da dahil olmak üzere çok çeşitli sorunları belirlemeye yardımcı olacaktır. Amodei, bunun başarılmasının beş ila 10 yıl sürebileceğini, ancak bu önlemlerin Anthropic’in gelecekteki YZ modellerini test etmek ve dağıtmak için gerekli olacağını ekliyor.

    Anthropic, YZ modellerinin nasıl çalıştığını daha iyi anlamasını sağlayan birkaç araştırma atılımı yaptı. Örneğin, şirket kısa süre önce bir YZ modelinin düşünme yollarını, şirketinin devreler olarak adlandırdığı yollardan izlemenin yollarını buldu. Anthropic, YZ modellerinin hangi ABD şehirlerinin hangi ABD eyaletlerinde bulunduğunu anlamasına yardımcı olan bir devre belirledi. Şirket, bu devrelerden sadece birkaçını buldu, ancak YZ modellerinde milyonlarca olduğunu tahmin ediyor.

    Anthropic, yorumlanabilirlik araştırmalarına yatırım yapıyor ve kısa süre önce yorumlanabilirlik üzerinde çalışan bir startup’a ilk yatırımını yaptı. Yorumlanabilirlik bugün büyük ölçüde bir güvenlik araştırması alanı olarak görülse de, Amodei, YZ modellerinin cevaplarına nasıl ulaştığını açıklamanın sonunda ticari bir avantaj sunabileceğini belirtiyor.

    Amodei, makalede OpenAI ve Google DeepMind’ı bu alandaki araştırma çabalarını artırmaya çağırdı. Dostane bir dürtünün ötesinde, Anthropic’in CEO’su hükümetlerden şirketlerin güvenlik uygulamalarını açıklama gereklilikleri gibi yorumlanabilirlik araştırmasını teşvik etmek için “hafif dokunuşlu” düzenlemeler getirmelerini istedi. Amodei makalesinde ayrıca ABD’nin kontrolden çıkmış küresel bir YZ yarışının olasılığını sınırlamak için Çin’e çip ihracatına kısıtlamalar getirmesi gerektiğini söylüyor.

    Anthropic, güvenlik konusuna odaklanmasıyla her zaman OpenAI ve Google’dan ayrılmıştır. Diğer teknoloji şirketleri Kaliforniya’nın tartışmalı YZ güvenlik yasası SB 1047’ye karşı çıkarken, Anthropic, öncü YZ modeli geliştiricileri için güvenlik raporlama standartları belirleyecek olan yasa için mütevazı destek ve tavsiyelerde bulundu.

    Bu durumda, Anthropic sadece yeteneklerini artırmakla kalmayıp, YZ modellerini daha iyi anlamak için sektör çapında bir çaba gösterilmesini istiyor gibi görünüyor.