iconLogo
Published:2025/10/23 9:37:00

LLMの性能UP✨相対スケーリング則

超要約:LLMの性能を相対評価で爆上げ🚀

  1. ギャルのキラーポイント

    • LLMの出来を「絶対的な点数」じゃなく「相対的な順位」で評価する新指標を開発したってコト!
    • 「Greedyデコーディング」とか「Top-kサンプリング」みたいな、LLMの実際の使い道に合った評価ができるようになったんだって!
    • LLMの「Emergence(ある時急に出来るようになる現象)」の謎を解き明かせるかもだし、ITサービスの質が爆上がりする予感?!
  2. 詳細解説

    • 背景 LLM(大規模言語モデル)って、モデルサイズがデカくなると性能も上がるって言われてるじゃん?🤔 でも、従来の評価方法だと、LLMのホントの良さが分からなかったんだよねー。
    • 方法 そこで、正解のトークン(単語とか)が、他の候補と比べてどれくらい良いか?っていう「相対的な評価」をする方法(RBP)を考えたの! (RBP=相対的確率ね😉)
    • 結果 RBPを使うと、LLMの性能をより正確に評価できるようになったんだって!✨ 例えば、チャットボットが「ロンドン」って答えを出すとき、他の地名よりも「ロンドン」を優先的に選ぶようにできるってコト!
    • 意義(ここがヤバい♡ポイント) この新しい評価方法で、LLMを使った色んなITサービスが、もっと使いやすく、もっと賢くなる可能性があるんだって!🤩 チャットボットの精度UPとか、翻訳の自然さUPとか、ワクワクする~!
  3. リアルでの使いみちアイデア💡

    • チャットボットで、質問の意図をより正確に理解して、的確な答えを出せるようになるかも!
    • 社内検索システムが進化して、必要な情報に秒速でたどり着けるようになるかも!

続きは「らくらく論文」アプリで

Relative-Based Scaling Law for Neural Language Models

Baoqing Yue / Jinyuan Zhou / Zixi Wei / Jingtao Zhan / Qingyao Ai / Yiqun Liu

Scaling laws aim to accurately predict model performance across different scales. Existing scaling-law studies almost exclusively rely on cross-entropy as the evaluation metric. However, cross-entropy provides only a partial view of performance: it measures the absolute probability assigned to the correct token, but ignores the relative ordering between correct and incorrect tokens. Yet, relative ordering is crucial for language models, such as in greedy-sampling scenario. To address this limitation, we investigate scaling from the perspective of relative ordering. We first propose the Relative-Based Probability (RBP) metric, which quantifies the probability that the correct token is ranked among the top predictions. Building on this metric, we establish the Relative-Based Scaling Law, which characterizes how RBP improves with increasing model size. Through extensive experiments on four datasets and four model families spanning five orders of magnitude, we demonstrate the robustness and accuracy of this law. Finally, we illustrate the broad application of this law with two examples, namely providing a deeper explanation of emergence phenomena and facilitating finding fundamental theories of scaling laws. In summary, the Relative-Based Scaling Law complements the cross-entropy perspective and contributes to a more complete understanding of scaling large language models. Thus, it offers valuable insights for both practical development and theoretical exploration.

cs / cs.LG / cs.AI / cs.CL