iconLogo
Published:2025/8/22 18:24:49

LLMテキストの「新鮮さ」を測定!

  1. 超要約: LLMが作った文章が、どれだけ新しい情報を含んでるか測定する研究だよ!

  2. ギャル的キラキラポイント✨

    • ● LLMが作った文章の「新しさ」を数値化するって、すごい発想💖
    • ● 既存の研究より、もっとデカいデータで詳しく調べたんだって! さすが~👏
    • ● 「RUSTY-DAWG」っていう、めっちゃ高性能なツールを開発したらしい! 名前もカワイイ😍
  3. 詳細解説

    • 背景: 最近のLLM(大規模言語モデル)は文章作るのが得意だけど、それが「新しい」情報なのか、ただのパクリなのか分からなかったんだよね🤔
    • 方法: LLMが作った文章を分析して、過去のデータにない単語の組み合わせ(n-gram)がどれだけあるかを調べたんだって!
    • 結果: LLMの種類とか設定によって、文章の「新しさ」が変わることが分かったみたい😳
    • 意義(ここがヤバい♡ポイント): LLMがどんな文章を作るか、もっと詳しく知ることで、著作権侵害とか、変な情報が出回るのを防げるかも✨
  4. リアルでの使いみちアイデア💡

    • AIライターを使って、オリジナリティあふれる記事を量産するサービスとか面白そう!
    • 検索エンジンが、まだ誰も知らない情報を教えてくれるようになったら、めっちゃ良くない?

続きは「らくらく論文」アプリで

Evaluating $n$-Gram Novelty of Language Models Using Rusty-DAWG

William Merrill / Noah A. Smith / Yanai Elazar

How novel are texts generated by language models (LMs) relative to their training corpora? In this work, we investigate the extent to which modern LMs generate $n$-grams from their training data, evaluating both (i) the probability LMs assign to complete training $n$-grams and (ii) $n$-novelty, the proportion of $n$-grams generated by an LM that did not appear in the training data (for arbitrarily large $n$). To enable arbitrary-length $n$-gram search over a corpus in constant time w.r.t. corpus size, we develop Rusty-DAWG, a novel search tool inspired by indexing of genomic data. We compare the novelty of LM-generated text to human-written text and explore factors that affect generation novelty, focusing on the Pythia models. We find that, for $n > 4$, LM-generated text is less novel than human-written text, though it is more novel for smaller $n$. Larger LMs and more constrained decoding strategies both decrease novelty. Finally, we show that LMs complete $n$-grams with lower loss if they are more frequent in the training data. Overall, our results reveal factors influencing the novelty of LM-generated text, and we release Rusty-DAWG to facilitate further pretraining data research.

cs / cs.CL / cs.AI