iconLogo
Published:2026/1/7 7:25:26

最強ギャル、LFDでRAGを爆アゲ!💖🔍

超要約:LLMが外部知識を賢く使って、情報検索をさらに最強にする方法✨

🌟 ギャル的キラキラポイント✨ ● LLM(AI)が賢くなって、嘘(ノイズ)を減らして、もっと正確な情報を見つけられるようになるってこと~!🤩 ● レイヤー(層)をフュージョン(融合)させて、AIが持ってる知識と、外から持ってきた知識をいい感じにミックス!🤝 ● 既存のシステムにポン付けできるから、すぐに色んなサービスで使えるようになるってワケ💖

🌟 詳細解説 ● 背景 LLMって、すごい量の情報を覚えてるんだけど、たまに間違ったこと言っちゃうことあるじゃん?😂 それを直すために、ネットとかから情報を引っ張ってきて、より正しくしよう!ってのがRAG(検索拡張生成)だよ。でも、引っ張ってきた情報の中に、AIにとって邪魔なノイズ(余計な情報)があったりして、逆に精度が落ちることも…💦

● 方法 そこで登場するのが、LFD(層融合デコーディング)! LLMの各レイヤー(階層)が持ってる情報をうまく使って、必要な情報だけを抽出するんだって✨ 具体的には、AIが情報を処理する時に、色んなレイヤーを通るんだけど、その中でも特に大事なレイヤーの情報をくっつけて、最終的な答えを作るイメージ!賢い~!💖

続きは「らくらく論文」アプリで

LFD: Layer Fused Decoding to Exploit External Knowledge in Retrieval-Augmented Generation

Yang Sun / Zhiyong Xie / Lixin Zou / Dan Luo / Min Tang / Xiangyu Zhao / Yunwei Zhao / Xixun Lin / Yanxiong Lu / Chenliang Li

Retrieval-augmented generation (RAG) incorporates external knowledge into large language models (LLMs), improving their adaptability to downstream tasks and enabling information updates. Surprisingly, recent empirical evidence demonstrates that injecting noise into retrieved relevant documents paradoxically facilitates exploitation of external knowledge and improves generation quality. Although counterintuitive and challenging to apply in practice, this phenomenon enables granular control and rigorous analysis of how LLMs integrate external knowledge. Therefore, in this paper, we intervene on noise injection and establish a layer-specific functional demarcation within the LLM: shallow layers specialize in local context modeling, intermediate layers focus on integrating long-range external factual knowledge, and deeper layers primarily rely on parametric internal knowledge. Building on this insight, we propose Layer Fused Decoding (LFD), a simple decoding strategy that directly combines representations from an intermediate layer with final-layer decoding outputs to fully exploit the external factual knowledge. To identify the optimal intermediate layer, we introduce an internal knowledge score (IKS) criterion that selects the layer with the lowest IKS value in the latter half of layers. Experimental results across multiple benchmarks demonstrate that LFD helps RAG systems more effectively surface retrieved context knowledge with minimal cost.

cs / cs.CL / cs.AI