iconLogo
Published:2025/10/23 9:21:13

IKnow で LLM が爆速進化!命令も知識もバッチリ👌

超要約:LLM(大規模言語モデル)の弱点克服!命令聞きつつ、知識も増やせる方法を開発したよ🌟

✨ ギャル的キラキラポイント ✨ ● 命令(指示)を聞く力も、知識も両立できるなんて、最強じゃん?✨ ● 外部のデータベースとか使わないから、手軽に始められるのが良い💖 ● 色んな分野で使えるから、未来がマジ卍って感じ🚀

詳細解説

背景 LLM って、色んな情報(データ)を学習してるけど、専門的な分野(ドメイン)だと、ちょっと苦手💧だから、その分野の情報を追加で学習させる「継続事前学習」ってのが流行ってるんだけど、命令聞けなくなっちゃう問題があったんだよね😭

方法 「IKnow」っていう新しい方法を開発!✨ 独自の方法で学習させることで、命令を聞く力も、専門知識も同時にゲットできるんだって!外部のデータベースとか使わないから、お手軽なのもうれしいポイント💕

続きは「らくらく論文」アプリで

IKnow: Instruction-Knowledge-Aware Continual Pretraining for Effective Domain Adaptation

Tianyi Zhang / Florian Mai / Lucie Flek

Continual pretraining promises to adapt large language models (LLMs) to new domains using only unlabeled test-time data, but naively applying standard self-supervised objectives to instruction-tuned models is known to degrade their instruction-following capability and semantic representations. Existing fixes assume access to the original base model or rely on knowledge from an external domain-specific database - both of which pose a realistic barrier in settings where the base model weights are withheld for safety reasons or reliable external corpora are unavailable. In this work, we propose Instruction-Knowledge-Aware Continual Adaptation (IKnow), a simple and general framework that formulates novel self-supervised objectives in the instruction-response dialogue format. Rather than depend- ing on external resources, IKnow leverages domain knowledge embedded within the text itself and learns to encode it at a deeper semantic level.

cs / cs.AI / cs.CL