iconLogo
Published:2025/11/7 18:41:03

最強ギャルAI爆誕!ヘイトスピーチ撲滅フレームワーク「TRACE」降臨✨

超要約:SNSのヘイト(憎悪)表現を、画像とテキスト両方から高精度で探すスゴい技術!

ギャル的キラキラポイント✨ ● 画像の内容を"視覚的グラウンディング"で見抜く!👀✨ どんな画像か詳しく分析! ● "キャプションスコアリング"で、ヘイトっぽい言葉をピンポイント🔎💡 ● AI(エーアイ)の無駄を省いた、賢い"ファインチューニング"!💎 計算コストも優秀!

詳細解説 ● 背景 SNS(エスエヌエス)でのヘイト、マジ勘弁🙏💦 画像とテキストの組み合わせで、さらに厄介なのよね。 今までのAIじゃ、見つけきれない問題があったんだって! ● 方法 TRACEは、画像とテキストを両方見て、ヘイトを検出するよ! まず、画像から重要な部分を特定🔍 次に、ヘイトっぽい言葉を強調するんだって!✨無駄を省いたAIで、精度アップ⤴ ● 結果 既存のAIよりも、ヘイト検出の精度が格段にUP🎉 間違いも減らせるから、安心してSNS使えるね💖 ● 意義(ここがヤバい♡ポイント) SNSがもっと安全になるってコト! 企業はコンテンツ(内容)の管理が楽になるし、ユーザーは安心してSNSを楽しめるようになるんだよ🥳

リアルでの使いみちアイデア💡

  1. SNSの監視員👮‍♀️ ヘイト投稿を自動で発見! みんなが安心して使えるSNSに!
  2. ネットパトロール🚓 eコマースのレビュー(評価)やコメント欄のヘイトをチェック!

続きは「らくらく論文」アプリで

TRACE: Textual Relevance Augmentation and Contextual Encoding for Multimodal Hate Detection

Girish A. Koushik / Helen Treharne / Aditya Joshi / Diptesh Kanojia

Social media memes are a challenging domain for hate detection because they intertwine visual and textual cues into culturally nuanced messages. To tackle these challenges, we introduce TRACE, a hierarchical multimodal framework that leverages visually grounded context augmentation, along with a novel caption-scoring network to emphasize hate-relevant content, and parameter-efficient fine-tuning of CLIP's text encoder. Our experiments demonstrate that selectively fine-tuning deeper text encoder layers significantly enhances performance compared to simpler projection-layer fine-tuning methods. Specifically, our framework achieves state-of-the-art accuracy (0.807) and F1-score (0.806) on the widely-used Hateful Memes dataset, matching the performance of considerably larger models while maintaining efficiency. Moreover, it achieves superior generalization on the MultiOFF offensive meme dataset (F1-score 0.673), highlighting robustness across meme categories. Additional analyses confirm that robust visual grounding and nuanced text representations significantly reduce errors caused by benign confounders. We publicly release our code to facilitate future research.

cs / cs.CV / cs.CL