iconLogo
Published:2026/1/8 9:15:27

LLMの数式認識、ちょい弱点見つけたった!😎✨

  1. 超要約: LLM(大規模言語モデル)の数式認識、敵対的攻撃でミスるの判明!対策で、もっと賢くなるかも~?😉

  2. ギャル的キラキラポイント✨

    • ● 数式画像をちょっとイジるだけで、LLMが変な答え出すって、ちょー面白い🤣
    • ● スケルトン化(骨格化)って技で、攻撃しやすくしたのが天才的💡
    • ● ChatGPTで実験して、実用性もチェック済みって、マジ卍じゃん?😎
  3. 詳細解説

    • 背景: LLMってすごいけど、数式はニガテなの?🤔 画像認識もできるけど、数式はLaTeX(数式を表すコード)に変換するから、複雑で敵対的攻撃(ちょいワルなノイズで誤認識させること)の影響を受けやすいんだって!
    • 方法: 数式画像を「スケルトン化」、つまり骨格だけに。そうすると攻撃しやすくなるみたい! LaTeXコードとの類似度で、攻撃が成功したか評価するよ👍 ChatGPTにも試して、マジで使えるか試したんだって!
    • 結果: スケルトン化&攻撃で、LLMの数式認識精度がガタ落ち😱 敵対的攻撃、恐るべし!でも、対策すればもっと賢くなる可能性も!
    • 意義(ここがヤバい♡ポイント): 教育や研究、金融とかで数式使うけど、セキュリティが大事じゃん? この研究で、LLMの弱点と対策が見えてきたから、もっと安全に使えるようになるかも!AIの未来、明るいね🥰
  4. リアルでの使いみちアイデア💡

    • オンライン授業のテストで、カンニング対策に使えるかも!😎
    • 金融系の書類チェックで、誤りを減らすのに役立つかもね✨

続きは「らくらく論文」アプリで

Skeletonization-Based Adversarial Perturbations on Large Vision Language Model's Mathematical Text Recognition

Masatomo Yoshida / Haruto Namura / Nicola Adami / Masahiro Okuda

This work explores the visual capabilities and limitations of foundation models by introducing a novel adversarial attack method utilizing skeletonization to reduce the search space effectively. Our approach specifically targets images containing text, particularly mathematical formula images, which are more challenging due to their LaTeX conversion and intricate structure. We conduct a detailed evaluation of both character and semantic changes between original and adversarially perturbed outputs to provide insights into the models' visual interpretation and reasoning abilities. The effectiveness of our method is further demonstrated through its application to ChatGPT, which shows its practical implications in real-world scenarios.

cs / cs.CV