Etiket: ai2

  • # Ai2’s Tiny Titan: New AI Model Punches Above Its Weight Class, Outperforming Google and Meta’s Offerings

    ## Ai2’s Tiny Titan: New AI Model Punches Above Its Weight Class, Outperforming Google and Meta’s Offerings

    The AI landscape is experiencing a shift, with smaller, more accessible models gaining traction. This week, the focus is on efficiency and accessibility, and leading the charge is Ai2 (Allen Institute for AI), a non-profit AI research institute. They’ve just released Olmo 2 1B, a 1-billion-parameter model, which they claim outperforms similarly-sized models from tech giants Google, Meta, and Alibaba on various key benchmarks. Parameters, often referred to as weights, are the core components within an AI model that dictate its behaviour.

    Olmo 2 1B stands out due to its open-source nature, licensed under the permissive Apache 2.0 license and available on Hugging Face. Unlike many proprietary models, Olmo 2 1B boasts full replicability. Ai2 has released the complete code and the datasets used for its training: Olmo-mix-1124 and Dolmino-mix-1124, fostering transparency and encouraging community contributions.

    The beauty of smaller models lies in their accessibility. While they might not possess the sheer power of their massive counterparts, they don’t demand the same hefty hardware requirements. This makes them a compelling option for developers and enthusiasts who are working with resource constraints and consumer-grade machines.

    This development follows a wave of recent small model releases, including Microsoft’s Phi 4 family and Qwen’s 2.5 Omni 3B. These smaller models, including Olmo 2 1B, can easily run on modern laptops and even mobile devices, opening up AI development to a wider audience.

    Ai2 reports that Olmo 2 1B was trained on a comprehensive dataset comprising 4 trillion tokens from publicly available, AI-generated, and manually created resources. To put that into perspective, 1 million tokens translate to approximately 750,000 words.

    The model’s performance is impressive. On the GSM8K benchmark, which measures arithmetic reasoning, Olmo 2 1B surpasses Google’s Gemma 3 1B, Meta’s Llama 3.2 1B, and Alibaba’s Qwen 2.5 1.5B. It also excels on the TruthfulQA test, which assesses factual accuracy, outperforming the same trio of models.

    Despite its promising capabilities, Ai2 issues a cautionary note. Like all AI models, Olmo 2 1B may generate “problematic outputs,” including harmful, sensitive, or factually inaccurate content. Because of these potential risks, Ai2 advises against deploying Olmo 2 1B in commercial applications, highlighting the continued need for responsible AI development and deployment.

  • # Ai2’nin Yeni Minik Yapay Zeka Modeli, Google ve Meta’nın Benzer Boyutlu Modellerini Geride Bırakıyor

    ## Ai2’nin Yeni Minik Yapay Zeka Modeli, Google ve Meta’nın Benzer Boyutlu Modellerini Geride Bırakıyor

    Görünüşe göre bu hafta, küçük yapay zeka modellerinin yükselişine tanık oluyoruz. Kar amacı gütmeyen yapay zeka araştırma enstitüsü Ai2, Perşembe günü Olmo 2 1B adlı yeni bir model yayınladı. 1 milyar parametreye sahip bu modelin, çeşitli kıyaslama testlerinde Google, Meta ve Alibaba gibi devlerin benzer büyüklükteki modellerini geride bıraktığı iddia ediliyor. Parametreler, bir modelin davranışını yönlendiren iç bileşenler olarak tanımlanıyor.

    Olmo 2 1B, AI geliştirme platformu Hugging Face üzerinde, Apache 2.0 lisansı altında kullanıma sunuldu. Çoğu modelden farklı olarak, Olmo 2 1B sıfırdan yeniden oluşturulabiliyor. Ai2, modeli geliştirmek için kullanılan kodu ve veri kümelerini (Olmo-mix-1124, Dolmino-mix-1124) erişime açtı.

    Küçük modeller, devasa rakipleri kadar yetenekli olmayabilirler, ancak en büyük avantajları, çalışmak için güçlü donanımlara ihtiyaç duymamaları. Bu durum, daha düşük özellikli ve tüketici sınıfı makinelerin kısıtlamalarıyla mücadele eden geliştiriciler ve hobi amaçlı kullanıcılar için onları çok daha erişilebilir kılıyor.

    Son birkaç günde, Microsoft’un Phi 4 mantık ailesinden Qwen’in 2.5 Omni 3B’sine kadar bir dizi küçük model lansmanı yaşandı. Bu modellerin çoğu ve Olmo 2 1B, modern bir dizüstü bilgisayarda, hatta bir mobil cihazda bile kolaylıkla çalıştırılabiliyor.

    Ai2, Olmo 2 1B’nin kamuya açık, yapay zeka tarafından oluşturulmuş ve manuel olarak oluşturulmuş kaynaklardan elde edilen 4 trilyon token’lık bir veri kümesi üzerinde eğitildiğini belirtiyor. Token’lar, modellerin tükettiği ve ürettiği ham veri parçalarıdır. 1 milyon token, yaklaşık 750.000 kelimeye denk geliyor.

    Olmo 2 1B, aritmetik akıl yürütmeyi ölçen GSM8K kıyaslamasında Google’ın Gemma 3 1B, Meta’nın Llama 3.2 1B ve Alibaba’nın Qwen 2.5 1.5B modellerinden daha iyi performans gösteriyor. Ayrıca, Olmo 2 1B, gerçek doğruluğu değerlendiren TruthfulQA testinde de bu üç modelin performansını aşıyor.

    Ancak Ai2, Olmo 2 1B’nin riskler taşıdığı konusunda uyarıyor. Tüm yapay zeka modelleri gibi, zararlı ve “hassas” içerikler de dahil olmak üzere “sorunlu çıktılar” üretebileceği gibi, gerçeklere dayalı olmayan ifadeler de sunabiliyor. Bu nedenlerle Ai2, Olmo 2 1B’nin ticari ortamlarda kullanılmasını önermiyor.