iconLogo
Published:2026/1/5 11:25:29

LLMでテキストに秘密を隠す技術!IT企業にチャンス到来✨

超要約:LLM(大規模言語モデル)で情報を隠す技術!ビジネスに活かせるよ!

🌟 ギャル的キラキラポイント✨ ● LLMを使って、文章の中に秘密の情報を隠せるんだって! ● セキュリティ(安全)対策にも、新しいビジネスにも使える予感! ● オープンソース(みんなが使えるように公開)になるかもって、すごくない?

詳細解説

背景 LLMって、文章を作ったりするのが得意なAIのこと💡最近すごい進化してるじゃん?研究者たちは、このLLMの能力を使って、まるで手品みたいに、普通の文章の中に秘密の情報を隠す方法を見つけたんだって!すごい!

方法 「Calgacus(カルガカス)」っていう、すごい名前の技術を使ってるみたい🌟LLMが、隠したい情報と、隠すための文章の両方を上手く組み合わせてくれるんだって!まるで、絵の中に隠された宝物みたいじゃん?

続きは「らくらく論文」アプリで

I Large Language Models possono nascondere un testo in un altro testo della stessa lunghezza

Antonio Norelli / Michael Bronstein

A meaningful text can be hidden inside another, completely different yet still coherent and plausible, text of the same length. For example, a tweet containing a harsh political critique could be embedded in a tweet that celebrates the same political leader, or an ordinary product review could conceal a secret manuscript. This uncanny state of affairs is now possible thanks to Large Language Models, and in this paper we present Calgacus, a simple and efficient protocol to achieve it. We show that even modest 8-billion-parameter open-source LLMs are sufficient to obtain high-quality results, and a message as long as this abstract can be encoded and decoded locally on a laptop in seconds. The existence of such a protocol demonstrates a radical decoupling of text from authorial intent, further eroding trust in written communication, already shaken by the rise of LLM chatbots. We illustrate this with a concrete scenario: a company could covertly deploy an unfiltered LLM by encoding its answers within the compliant responses of a safe model. This possibility raises urgent questions for AI safety and challenges our understanding of what it means for a Large Language Model to know something. -- Un testo di senso compiuto pu\`o essere nascosto all'interno di un altro testo completamente diverso, eppure coerente e plausibile, della stessa lunghezza. Ad esempio, un tweet che celebra un leader politico potrebbe celare un tweet che lo critica duramente, o un'anonima recensione di un prodotto potrebbe in realt\`a codificare un manoscritto segreto. Questa sconcertante possibilit\`a \`e oggi alla nostra portata grazie ai Large Language Models (LLM); in questo articolo presentiamo Calgacus, un protocollo semplice ed efficiente per realizzarla. Mostriamo che anche modesti LLM open-source da 8 miliardi di parametri sono sufficienti per ottenere risultati di alta qualit\`a, e che un messaggio lungo quanto questo abstract pu\`o essere codificato e decodificato su un comune portatile in pochi secondi. L'esistenza di tale protocollo dimostra un radicale disaccoppiamento del testo dall'intento del suo autore, erodendo ulteriormente la fiducia nella comunicazione scritta, gi\`a scossa dall'ascesa dei chatbot basati su LLMs. Illustriamo ci\`o con uno scenario concreto: un'azienda potrebbe offrire pubblicamente i servizi di un LLM senza filtri nascondendo le sue risposte all'interno di risposte apparentemente innocue generate da un LLM considerato sicuro. Questa possibilit\`a solleva questioni urgenti per la sicurezza dell'Intelligenza Artificiale e sfida la nostra comprensione di cosa significhi, per un Large Language Model, sapere qualcosa.

cs / cs.AI / cs.CL / cs.CR / cs.LG