タイトル & 超要約:RAAR、誤情報見破る最強フレームワーク爆誕!✨
🌟 ギャル的キラキラポイント✨ ● ドメイン(分野)をまたいだ情報も、RAARなら正確に見抜けるんだって!賢すぎ💖 ● 検索🔍とAIエージェント🤖のコラボで、色んな角度から情報分析しちゃうの! ● SFTとRLっていう、スゴイ学習方法で、性能も爆上がり⤴️
詳細解説 ● 背景 ネットには嘘(誤情報)がいっぱい😱。 でもRAARは、色んな分野の情報をちゃんと理解して、嘘を見破るスゴいフレームワークなの!従来の技術じゃ難しかった、違う分野の情報も、RAARならOK!
● 方法 RAARは、検索🔍で情報を集めて、AIエージェント達が協力して分析するシステム。感情、意味、スタイル…色んな視点から情報をチェックするから、見抜ける精度も高いんだよね!学習方法も工夫されてて、高性能✨
● 結果 RAARは、他の方法よりもずっと良い結果を出してるみたい! 論文の実験でも、その実力が証明されてるってこと💖 オープンソースのAIも使ってて、誰でも使える可能性があるのもアツい🔥
続きは「らくらく論文」アプリで
Cross-domain misinformation detection is challenging, as misinformation arises across domains with substantial differences in knowledge and discourse. Existing methods often rely on single-perspective cues and struggle to generalize to challenging or underrepresented domains, while reasoning large language models (LLMs), though effective on complex tasks, are limited to same-distribution data. To address these gaps, we introduce RAAR, the first retrieval-augmented agentic reasoning framework for cross-domain misinformation detection. To enable cross-domain transfer beyond same-distribution assumptions, RAAR retrieves multi-perspective source-domain evidence aligned with each target sample's semantics, sentiment, and writing style. To overcome single-perspective modeling and missing systematic reasoning, RAAR constructs verifiable multi-step reasoning paths through specialized multi-agent collaboration, where perspective-specific agents produce complementary analyses and a summary agent integrates them under verifier guidance. RAAR further applies supervised fine-tuning and reinforcement learning to train a single multi-task verifier to enhance verification and reasoning capabilities. Based on RAAR, we trained the RAAR-8b and RAAR-14b models. Evaluation on three cross-domain misinformation detection tasks shows that RAAR substantially enhances the capabilities of the base models and outperforms other cross-domain methods, advanced LLMs, and LLM-based adaptation approaches. The project will be released at https://github.com/lzw108/RAAR.