iconLogo
Published:2026/1/8 11:46:30

最強ギャルAIが解説!MisSpansで偽情報とバイバイ👋💖

  1. 超要約: スパンレベル(ピンポイント)で偽情報を探せる!MisSpansベンチマーク登場✨

  2. ギャル的キラキラポイント

    • ● 記事全体じゃなくて、文章のココ!って部分を見抜くのがスゴくない?🧐
    • ● 偽情報の種類(ゆがみとか捏造とか)を細かく分類できるんだって!🎨
    • ● 「なんで嘘なの?」って説明までしてくれるから、めっちゃわかりやすい♪💡
  3. 詳細解説

    • 背景: 最近、ネットには嘘ばっかり!全部の記事を疑うの疲れちゃうよね😢 でも、MisSpansはピンポイントで嘘を見つけるから、賢く情報収集できるってワケ💖
    • 方法: 真実と嘘のニュース記事をペアにして、偽情報が含まれてる部分(スパン)を特定するの! その部分の種類(歪曲とか)と、なんで嘘なのかの説明もしてくれるんだって!🧐
    • 結果: 今までのやり方じゃ見つけられなかった嘘も、MisSpansならバッチリ!信ぴょう性の高い情報だけゲットできるから、騙される心配もナシ😉
    • 意義(ここがヤバい♡ポイント): 嘘を見抜く力がアップするから、フェイクニュースに惑わされない! IT業界の信頼性も高まるし、賢い情報収集で毎日が楽しくなること間違いなしっ😍
  4. リアルでの使いみちアイデア💡

    • SNSで変な情報見つけたら、MisSpansでチェック!友達に「これ嘘だよ!」って教えてあげよ♪😎
    • ニュースアプリにMisSpans機能が搭載されたら、情報源の信頼度が一目でわかるから、めっちゃ便利じゃん?😍

続きは「らくらく論文」アプリで

MisSpans: Fine-Grained False Span Identification in Cross-Domain Fake News

Zhiwei Liu / Paul Thompson / Jiaqi Rong / Baojie Qu / Runteng Guo / Min Peng / Qianqian Xie / Sophia Ananiadou

Online misinformation is increasingly pervasive, yet most existing benchmarks and methods evaluate veracity at the level of whole claims or paragraphs using coarse binary labels, obscuring how true and false details often co-exist within single sentences. These simplifications also limit interpretability: global explanations cannot identify which specific segments are misleading or differentiate how a detail is false (e.g., distorted vs. fabricated). To address these gaps, we introduce MisSpans, the first multi-domain, human-annotated benchmark for span-level misinformation detection and analysis, consisting of paired real and fake news stories. MisSpans defines three complementary tasks: MisSpansIdentity for pinpointing false spans within sentences, MisSpansType for categorising false spans by misinformation type, and MisSpansExplanation for providing rationales grounded in identified spans. Together, these tasks enable fine-grained localisation, nuanced characterisation beyond true/false and actionable explanations. Expert annotators were guided by standardised guidelines and consistency checks, leading to high inter-annotator agreement. We evaluate 15 representative LLMs, including reasoning-enhanced and non-reasoning variants, under zero-shot and one-shot settings. Results reveal the challenging nature of fine-grained misinformation identification and analysis, and highlight the need for a deeper understanding of how performance may be influenced by multiple interacting factors, including model size and reasoning capabilities, along with domain-specific textual features. This project will be available at https://github.com/lzw108/MisSpans.

cs / cs.CL