iconLogo
Published:2026/1/5 2:44:28

Youtu-LLM爆誕! 軽量なのに最強エージェントAI✨(超要約:小っちゃくてもスゴいやつ!)

  1. ギャル的キラキラポイント✨ ● 軽量モデルなのに、賢すぎ! 20億パラメータなのに、めっちゃ色々できるってマジ卍! ● 自律的に考えて動く! 自分で計画立てて実行するエージェント能力、ハンパないって! ● 色んな分野で活躍! コード書いたり、研究したり、ツール使ったり、マジで万能💕

  2. 詳細解説

    • 背景 最近のLLM(大規模言語モデル)はデカくてお金かかる問題があったの。でも、Youtu-LLMは軽くて高性能! 計算資源(PCのスペックみたいなもの)が少ない環境でも、スゴイAIが使えるようになるってこと😉
    • 方法 Long-Context Support、Commonsense-STEM-Agentカリキュラム、スケーラブルなエージェントミッドトレーニングの3つの技術革新で、高性能を実現したんだって!特に、長い文章も理解できるのがスゴイ!
    • 結果 他のモデルよりもイケてる結果出してる!コード生成(プログラミング)とか、色んなタスクで既存の技術を超えてるって🤩
    • 意義(ここがヤバい♡ポイント) AIがもっと身近になる!企業や開発者がAI技術を使いやすくなって、新しいサービスとかもどんどん生まれるかも✨ 労働生産性も上がって、イノベーションも加速する予感💖
  3. リアルでの使いみちアイデア💡

    • プログラミングの相棒! コード書いてくれるAIアシスタントで、爆速で開発できちゃう!
    • 研究の強い味方! 論文探しとか情報整理をAIがやってくれて、新しい発見も夢じゃないかも💖
  4. もっと深掘りしたい子へ🔍 キーワード

    • エージェント能力(自分から動く力)
    • 軽量モデル(軽いってこと!)
    • Long-Context Support(長い文章もOK!)

続きは「らくらく論文」アプリで

Youtu-LLM: Unlocking the Native Agentic Potential for Lightweight Large Language Models

Junru Lu / Jiarui Qin / Lingfeng Qiao / Yinghui Li / Xinyi Dai / Bo Ke / Jianfeng He / Ruizhi Qiao / Di Yin / Xing Sun / Yunsheng Wu / Yinsong Liu / Shuangyin Liu / Mingkong Tang / Haodong Lin / Jiayi Kuang / Fanxu Meng / Xiaojuan Tang / Yunjia Xi / Junjie Huang / Haotong Yang / Zhenyi Shen / Yangning Li / Qianwen Zhang / Yifei Yu / Siyu An / Junnan Dong / Qiufeng Wang / Jie Wang / Keyu Chen / Wei Wen / Taian Guo / Zhifeng Shen / Daohai Yu / Jiahao Li / Ke Li / Zongyi Li / Xiaoyu Tan

We introduce Youtu-LLM, a lightweight yet powerful language model that harmonizes high computational efficiency with native agentic intelligence. Unlike typical small models that rely on distillation, Youtu-LLM (1.96B) is pre-trained from scratch to systematically cultivate reasoning and planning capabilities. The key technical advancements are as follows: (1) Compact Architecture with Long-Context Support: Built on a dense Multi-Latent Attention (MLA) architecture with a novel STEM-oriented vocabulary, Youtu-LLM supports a 128k context window. This design enables robust long-context reasoning and state tracking within a minimal memory footprint, making it ideal for long-horizon agent and reasoning tasks. (2) Principled "Commonsense-STEM-Agent" Curriculum: We curated a massive corpus of approximately 11T tokens and implemented a multi-stage training strategy. By progressively shifting the pre-training data distribution from general commonsense to complex STEM and agentic tasks, we ensure the model acquires deep cognitive abilities rather than superficial alignment. (3) Scalable Agentic Mid-training: Specifically for the agentic mid-training, we employ diverse data construction schemes to synthesize rich and varied trajectories across math, coding, and tool-use domains. This high-quality data enables the model to internalize planning and reflection behaviors effectively. Extensive evaluations show that Youtu-LLM sets a new state-of-the-art for sub-2B LLMs. On general benchmarks, it achieves competitive performance against larger models, while on agent-specific tasks, it significantly surpasses existing SOTA baselines, demonstrating that lightweight models can possess strong intrinsic agentic capabilities.

cs / cs.CL