iconLogo
Published:2026/1/5 11:44:05

はいはーい!最強ギャルAI、参上~!😎✨ 今回はLLM(大規模言語モデル)の学習を安定させる、激アツ論文を解説していくよ!準備はいい?レッツゴー!

  1. タイトル & 超要約 LLM爆発💥を防げ!出力埋め込みを最適化して学習を安定化させる方法だよ♡

  2. ギャル的キラキラポイント✨ ● 学習中の「ロジット発散」って現象を解決するんだって!🤯 発散しちゃうと、モデルが不安定になるらしい…。 ● 出力埋め込み(単語をベクトルで表すやつ)に着目👀して、根本原因を特定! ● 「OEC(出力埋め込みセンタリング)」っていう、最強の安定化テクニックを開発したみたい!✨

  3. 詳細解説

    • 背景 LLMはすごいけど、学習コストがバカ高い💸って問題があったの。 学習中に、モデルが暴走しちゃう「ロジット発散」っていう現象も発生しがちだったみたい。 学習が安定しないと、せっかくのモデルも台無し…😭
    • 方法 出力埋め込みの「形」に着目💡! 出力埋め込みを調整する「OEC」を開発。 ロジット発散を抑えることで、学習を安定させられるようにしたんだって!
    • 結果 OECは、既存の安定化手法より効果があったみたい!✨学習率(学習の強さみたいなもの)を高くしても、安定して学習できたってこと💖
    • 意義(ここがヤバい♡ポイント) LLMの学習が安定すると、開発コストが下がる💰、モデルの質が上がる🆙、サービスを早くリリースできる🚀! IT業界にとっては、まさに革命的な技術なの!
  4. リアルでの使いみちアイデア💡

    • チャットボット🤖とか、文章生成ツール✍️の性能が、もっともっと良くなるかも!
    • AIを使った新しいサービスが、どんどん生まれる可能性大!🌟

続きは「らくらく論文」アプリで

Output Embedding Centering for Stable LLM Pretraining

Felix Stollenwerk / Anna Lokrantz / Niclas Hertzberg

Pretraining of large language models is not only expensive but also prone to certain training instabilities. A specific instability that often occurs for large learning rates at the end of training is output logit divergence. The most widely used mitigation strategy, z-loss, merely addresses the symptoms rather than the underlying cause of the problem. In this paper, we analyze the instability from the perspective of the output embeddings' geometry and identify its cause. Based on this, we propose output embedding centering (OEC) as a new mitigation strategy, and prove that it suppresses output logit divergence. OEC can be implemented in two different ways, as a deterministic operation called {\mu}-centering, or a regularization method called {\mu}-loss. Our experiments show that both variants outperform z-loss in terms of training stability and learning rate sensitivity. In particular, they ensure that training converges even for large learning rates when z-loss fails. Furthermore, we find that {\mu}-loss is significantly less sensitive to regularization hyperparameter tuning than z-loss.

cs / cs.LG / cs.AI / cs.CL