iconLogo
Published:2026/1/11 4:09:32

LLM知識編集を爆速化!MOSEって何?🚀

  1. タイトル & 超要約 LLMの知識を安全に編集する魔法🧙‍♀️!MOSE!

  2. ギャル的キラキラポイント✨ ● LLM(大規模言語モデル)の頭の中身を、安全にちょちょいと修正できるんだって! ● 数値が不安定になっちゃう問題(数値的安定性)を、直交行列(とっこうぎょうれつ)で解決💖 ● 既存の手法より、賢く&色々できる!まさに最強😎

  3. 詳細解説

    • 背景 LLMは賢いけど、情報が古かったり間違ってたりすることも😱 だから、中身をアップデートする必要があるんだけど、普通にやるとモデルが壊れちゃうことも…。そこで、安全に知識を編集する技術が求められてるってワケ!
    • 方法 既存の手法は、足し算(加算)で修正してたんだけど、それだと不安定になっちゃう💔 そこで、今回は掛け算(乗算)を使う「MOSE」って手法を開発!直交行列って特殊なもので掛け算するから、数値的に安定するんだって!
    • 結果 MOSEを使えば、モデルのパフォーマンスを落とさずに、安全に知識を編集できることが判明🎉 しかも、色んな知識を順番に追加(逐次的)しても、大丈夫みたい!
    • 意義(ここがヤバい♡ポイント) LLMの知識を安全にアップデートできるから、色んなサービスがもっと賢くなるってこと!嘘の情報も減らせるし、新しい情報にもすぐ対応できるから、ユーザーも大喜び😍
  4. リアルでの使いみちアイデア💡

    • 企業のチャットボットが、最新の情報を教えてくれるようになる! 例えば、新商品の情報とか、キャンペーン情報とかもバッチリ👌
    • 検索エンジンが、もっと正確で役立つ情報を見つけてくれるようになる! 知りたい情報にすぐたどり着けるから、マジ便利✨

続きは「らくらく論文」アプリで

Multiplicative Orthogonal Sequential Editing for Language Models

Hao-Xiang Xu / Jun-Yu Ma / Ziqi Peng / Yuhao Sun / Zhen-Hua Ling / Jia-Chen Gu

Knowledge editing aims to efficiently modify the internal knowledge of large language models (LLMs) without compromising their other capabilities. The prevailing editing paradigm, which appends an update matrix to the original parameter matrix, has been shown by some studies to damage key numerical stability indicators (such as condition number and norm), thereby reducing editing performance and general abilities, especially in sequential editing scenario. Although subsequent methods have made some improvements, they remain within the additive framework and have not fundamentally addressed this limitation. To solve this problem, we analyze it from both statistical and mathematical perspectives and conclude that multiplying the original matrix by an orthogonal matrix does not change the numerical stability of the matrix. Inspired by this, different from the previous additive editing paradigm, a multiplicative editing paradigm termed Multiplicative Orthogonal Sequential Editing (MOSE) is proposed. Specifically, we first derive the matrix update in the multiplicative form, the new knowledge is then incorporated into an orthogonal matrix, which is multiplied by the original parameter matrix. In this way, the numerical stability of the edited matrix is unchanged, thereby maintaining editing performance and general abilities. We compared MOSE with several current knowledge editing methods, systematically evaluating their impact on both editing performance and the general abilities across three different LLMs. Experimental results show that MOSE effectively limits deviations in the edited parameter matrix and maintains its numerical stability. Compared to current methods, MOSE achieves a 12.08% improvement in sequential editing performance, while retaining 95.73% of general abilities across downstream tasks. The code is available at https://github.com/famoustourist/MOSE.

cs / cs.LG / cs.AI