iconLogo
Published:2025/10/23 7:47:22

LLM(大規模言語モデル)の引用、もっと完璧にしちゃお!✨

1. 超要約:LLMの嘘(引用ミス)をなくす研究!対策とビジネスへの応用を紹介💕

2. ギャル的キラキラポイント✨

● LLMが答えるとき、どこから情報とってきたか、ちゃんと教えてくれるようにする研究なの! ● 「引用失敗」の原因を分析して、効果的な対策を考えたんだって!天才! ● IT業界で、もっと信頼できるサービスを作るための、超使えるアイデアがいっぱい!

3. 詳細解説

  • 背景 LLMはすごいけど、情報源(ソース)をちゃんと教えてくれないと困るよね?🤯 それが「引用失敗」。ユーザーが情報調べ直したり、信用できなくなっちゃう問題! 既存の研究じゃ、この問題がちゃんと扱われてなかったり、対策がイマイチだったんだって😢

  • 方法 まず、どんな時に引用が失敗するのか、原因を徹底的に分析🔎 そして、色んな方法を組み合わせた「CITENTION」っていう、すごいフレームワークを開発✨ これを使えば、LLMがもっと正確に引用してくれるようになるんだって!

続きは「らくらく論文」アプリで

Citation Failure: Definition, Analysis and Efficient Mitigation

Jan Buchmann / Iryna Gurevych

Citations from LLM-based RAG systems are supposed to simplify response verification. However, this does not hold for citation failure, when a model generates a helpful response, but fails to cite complete evidence. In contrast to previous work, we propose to disentangle this from response failure, where the response itself is flawed, and citing complete evidence is impossible. To address citation failure, this work follows a two-step approach: (1) We study when citation failure occurs and (2) how it can be mitigated. For step 1, we extend prior work by investigating how the relation between response and evidence affects citation quality. We introduce CITECONTROL, a benchmark that systematically varies this relation to analyze failure modes. Experiments show that failures increase with relational complexity and suggest that combining citation methods could improve performance, motivating step 2. To improve LLM citation efficiently, we propose CITENTION, a framework integrating generative, attention-based, and retrieval-based methods. Results demonstrate substantial citation improvements on CITECONTROL and in transfer settings. We make our data and code publicly available.

cs / cs.CL