iconLogo
Published:2025/12/16 12:09:10

DARTでLLMを爆速化!🚀

  1. 超要約: LLM(大規模言語モデル)の計算を賢く節約!問題の難易度に合わせて計算量を調整するDARTっていうスゴ技✨

  2. ギャル的キラキラポイント✨

    • ● 問題のレベルに合わせて思考(推論)の長さを変えるから、ムダがない👏
    • ● 強化学習(RL)みたいに不安定になる心配ナシ!教師あり学習で安定💖
    • ● 計算スピードが爆上がりするから、スマホアプリとかにも使えるかも📱
  3. 詳細解説

    • 背景: LLMは賢いけど、計算に時間かかるのが難点😓 そこで、推論(思考)のプロセスを短くして、計算を速くしたい!
    • 方法: 問題の難易度(簡単 or 難しい)を分析して、それに合わせて推論を途中でやめる(打ち切る)DARTフレームワークを開発!教師あり学習で、安定的に学習するようにしたよ✨
    • 結果: 推論の長さを最大81.2%も短縮!計算速度はなんと5.33倍に!🎉 GSM8Kデータセットでの実験で成功したんだって!
    • 意義: 計算コストを抑えつつ、LLMのパフォーマンスを最大限に引き出すことに成功!色んな分野でLLMが使いやすくなるね💖
  4. リアルでの使いみちアイデア💡

    • AIチャットボット: 質問の難易度に合わせて、返答の長さを調整するチャットボットができるかも!サクサク会話できるって最高じゃん?
    • 教育アプリ: 勉強アプリで、問題のレベルに合わせて説明のステップ数を変える機能とか、面白そうじゃない?😍

続きは「らくらく論文」アプリで

DART: Difficulty-Adaptive Reasoning Truncation for Efficient Large Language Models

Ruofan Zhang / Bin Xia / Zhen Cheng / Cairen Jian / Minglun Yang / Ngai Wong / Yuan Cheng

Adaptive reasoning is essential for aligning the computational effort of large language models (LLMs) with the intrinsic difficulty of problems. Current chain-of-thought methods boost reasoning ability but indiscriminately generate long explanations, leading to evident inefficiency. However, existing reinforcement learning approaches to adaptive thinking remain unstable and heavily reward-dependent. Here we propose \textbf{DART}, a supervised \textbf{D}ifficulty-\textbf{A}daptive \textbf{R}easoning \textbf{T}runcation framework that adjusts thinking length according to problem difficulty. By distilling concise reasoning patterns from stronger models, interpolating them into a continuum of reasoning styles, and curating optimal training data that balances correctness and compactness, DART learns when to ``stop thinking''. Across multiple mathematical benchmarks, experimental results demonstrate its remarkable efficiency while preserving or improving accuracy, achieving a significant 81.2\% reasoning truncation (DeepSeek-R1-Distill-Qwen-7B on GSM8K dataset) with 5.33$\times$ computational acceleration. DART provides a stable and general paradigm for efficient reasoning, advancing the development of adaptive intelligence in LLMs.

cs / cs.AI