iconLogo
Published:2025/12/17 9:35:05

FAME爆誕!LLMの「忘れさせ」ベンチマーク🎉

  1. 超要約: 多言語LLM(大規模言語モデル)の「忘れさせる」技術を評価する、新しいベンチマーク「FAME」を紹介するよ!

  2. ギャル的キラキラポイント✨

    • ● 5か国語対応!英語だけじゃないのがアツい🔥
    • ● インスタンスレベルの忘却も評価できる!細かくて神✨
    • ● 合成データだから、評価がマジで公平なの💖
  3. 詳細解説

    • 背景: LLMは個人情報とか覚えちゃう危険性がある😱 だから、情報を忘れさせる技術が大事!でも、評価方法が英語だけだったり、甘かったりしたんだよね🥺
    • 方法: FAMEっていう、5言語対応の評価ベンチマークを作ったよ!架空(かくう)の俳優さんの情報を合成して、忘れさせ具合をチェックするの🌟
    • 結果: FAMEを使えば、多言語LLMの「忘れさせ」能力をしっかり評価できるようになった!インスタンスレベル(一部の情報削除)にも対応してるのがスゴイ💕
    • 意義: プライバシー保護が強化されるから、安心してLLMを使えるようになるね!企業も安心してサービス開発できるから、未来が明るい✨
  4. リアルでの使いみちアイデア💡

    • 個人情報(こじんじょうほう)を扱うサービスで、ユーザーが自分の情報を消せるようにする🙌
    • 多言語対応のAIチャットボットで、ユーザーのプライバシーを守りながら、快適な(かいてきな)体験を提供する😊

続きは「らくらく論文」アプリで

FAME: Fictional Actors for Multilingual Erasure

Claudio Savelli / Moreno La Quatra / Alkis Koudounas / Flavio Giobergia

LLMs trained on web-scale data raise concerns about privacy and the right to be forgotten. To address these issues, Machine Unlearning provides techniques to remove specific information from trained models without retraining from scratch. However, existing benchmarks for evaluating unlearning in LLMs face two major limitations: they focus only on English and support only entity-level forgetting (removing all information about a person). We introduce FAME (Fictional Actors for Multilingual Erasure), a synthetic benchmark for evaluating Machine Unlearning across five languages: English, French, German, Italian, and Spanish. FAME contains 1,000 fictional actor biographies and 20,000 question-answer pairs. Each biography includes information on 20 topics organized into structured categories (biography, career, achievements, personal information). This design enables both entity-level unlearning (i.e., forgetting entire identities) and instance-level unlearning (i.e., forgetting specific facts while retaining others). We provide two dataset splits to support these two different unlearning scenarios and enable systematic comparison of unlearning techniques across languages. Since FAME uses entirely fictional data, it ensures that the information was never encountered during model pretraining, allowing for a controlled evaluation of unlearning methods.

cs / cs.CL