iconLogo
Published:2025/12/26 1:08:43

LLM使ったシステム、コードインジェクション(コードを不正に埋め込む攻撃)に気を付けて!💥

超要約: LLM(大規模言語モデル)を使ったシステム、コードインジェクション攻撃に注意!安全な開発方法を研究してるよ✨

ギャル的キラキラポイント✨

● LLMを使った開発、めっちゃ効率的だけど、セキュリティ(安全)対策も大事ってことね! ● コードインジェクション攻撃、悪意のあるコードをシステムに埋め込むって、マジ怖い😱 ● セキュリティ分析エージェント(セキュリティをチェックするAI)の限界も研究してるんだって!

詳細解説

背景 最近、LLMを使って色んな事ができるようになってきたじゃん? 例えば、プログラム書いたり、チェックしたり! でも、そういうシステムって、コードインジェクション攻撃を受けやすいんだって。 攻撃者が変なコードを埋め込んで、システムを乗っ取ろうとするんだって!

方法 研究では、色んなパターンのコードインジェクション攻撃を試して、どの攻撃が成功しやすいのか、どんな対策が有効なのかを調べてるんだって! セキュリティ分析エージェントの効果も検証してるみたい。

続きは「らくらく論文」アプリで

Analyzing Code Injection Attacks on LLM-based Multi-Agent Systems in Software Development

Brian Bowers / Smita Khapre / Jugal Kalita

Agentic AI and Multi-Agent Systems are poised to dominate industry and society imminently. Powered by goal-driven autonomy, they represent a powerful form of generative AI, marking a transition from reactive content generation into proactive multitasking capabilities. As an exemplar, we propose an architecture of a multi-agent system for the implementation phase of the software engineering process. We also present a comprehensive threat model for the proposed system. We demonstrate that while such systems can generate code quite accurately, they are vulnerable to attacks, including code injection. Due to their autonomous design and lack of humans in the loop, these systems cannot identify and respond to attacks by themselves. This paper analyzes the vulnerability of multi-agent systems and concludes that the coder-reviewer-tester architecture is more resilient than both the coder and coder-tester architectures, but is less efficient at writing code. We find that by adding a security analysis agent, we mitigate the loss in efficiency while achieving even better resiliency. We conclude by demonstrating that the security analysis agent is vulnerable to advanced code injection attacks, showing that embedding poisonous few-shot examples in the injected code can increase the attack success rate from 0% to 71.95%.

cs / cs.SE / cs.MA