論文の概要: Robust Steganography from Large Language Models
- arxiv url: http://arxiv.org/abs/2504.08977v1
- Date: Fri, 11 Apr 2025 21:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:48:30.371444
- Title: Robust Steganography from Large Language Models
- Title(参考訳): 大規模言語モデルからのロバストステレオグラフィ
- Authors: Neil Perry, Sanket Gupte, Nishant Pitta, Lior Rotem,
- Abstract要約: 頑健なステガノグラフィーの問題点について検討する。
任意の秘密メッセージを自然言語テキストに埋め込む構造を設計し,実装する。
- 参考スコア(独自算出の注目度): 1.5749416770494704
- License:
- Abstract: Recent steganographic schemes, starting with Meteor (CCS'21), rely on leveraging large language models (LLMs) to resolve a historically-challenging task of disguising covert communication as ``innocent-looking'' natural-language communication. However, existing methods are vulnerable to ``re-randomization attacks,'' where slight changes to the communicated text, that might go unnoticed, completely destroy any hidden message. This is also a vulnerability in more traditional encryption-based stegosystems, where adversaries can modify the randomness of an encryption scheme to destroy the hidden message while preserving an acceptable covertext to ordinary users. In this work, we study the problem of robust steganography. We introduce formal definitions of weak and strong robust LLM-based steganography, corresponding to two threat models in which natural language serves as a covertext channel resistant to realistic re-randomization attacks. We then propose two constructions satisfying these notions. We design and implement our steganographic schemes that embed arbitrary secret messages into natural language text generated by LLMs, ensuring recoverability even under adversarial paraphrasing and rewording attacks. To support further research and real-world deployment, we release our implementation and datasets for public use.
- Abstract(参考訳): Meteor (CCS'21)から始まる最近のステガノグラフィースキームでは、大規模言語モデル(LLM)を活用して、隠れたコミュニケーションを'不明瞭'な'自然言語通信として、歴史的に混乱した課題を解決する。
しかし、既存のメソッドは're-randomization attack'('re-randomization attack'')に脆弱性がある。
これは、より伝統的な暗号化ベースのステゴシステムにおける脆弱性であり、敵は暗号化スキームのランダム性を修正して隠されたメッセージを破壊し、通常のユーザーに許容できる秘密文を保存することができる。
本研究では,ロバストステガノグラフィーの問題点について考察する。
本稿では,LLMをベースとした弱・強靭なステガノグラフィーの形式的定義を,自然言語が現実的再ランダム化攻撃に抵抗する秘密文チャネルとして機能する2つの脅威モデルに対応して導入する。
次に、これらの概念を満たす2つの構成を提案する。
我々は,LLMが生成する自然言語テキストに任意の秘密メッセージを埋め込む構造を設計し,実装する。
さらなる研究と実世界の展開をサポートするため、パブリック使用のための実装とデータセットをリリースしています。
関連論文リスト
- Semantic Steganography: A Framework for Robust and High-Capacity Information Hiding using Large Language Models [25.52890764952079]
生成言語ステガノグラフィーは、モデル生成テキストに情報を隠蔽する一般的な技術となっている。
大規模言語モデル(LLM)に基づく意味的ステガノグラフィーフレームワークを提案する。
このフレームワークは複雑なチャネルでの送信に対して堅牢性と信頼性を提供し、テキストレンダリングやワードブロッキングに対する耐性を提供する。
論文 参考訳(メタデータ) (2024-12-15T04:04:23Z) - DiffuseDef: Improved Robustness to Adversarial Attacks [38.34642687239535]
敵の攻撃は、事前訓練された言語モデルを使って構築されたシステムにとって重要な課題となる。
本稿では,拡散層をエンコーダと分類器のデノイザとして組み込んだDiffuseDefを提案する。
推測中、敵対的隠蔽状態はまずサンプルノイズと組み合わせられ、次に反復的に復調され、最後にアンサンブルされ、堅牢なテキスト表現が生成される。
論文 参考訳(メタデータ) (2024-06-28T22:36:17Z) - Provably Secure Disambiguating Neural Linguistic Steganography [66.30965740387047]
サブワードに基づく言語モデルを使用する際に生じるセグメンテーションの曖昧さ問題は、時にはデコード障害を引き起こす。
そこで我々はSyncPoolという,セグメンテーションのあいまいさ問題に効果的に対処する,セキュアな曖昧さ回避手法を提案する。
SyncPoolは、候補プールのサイズやトークンの分布を変えないため、確実に安全な言語ステガノグラフィー手法に適用できる。
論文 参考訳(メタデータ) (2024-03-26T09:25:57Z) - AdaShield: Safeguarding Multimodal Large Language Models from Structure-based Attack via Adaptive Shield Prompting [54.931241667414184]
textbfAdaptive textbfShield Promptingを提案する。これは、MLLMを構造ベースのジェイルブレイク攻撃から守るための防御プロンプトで入力をプリペイドする。
我々の手法は、構造に基づくジェイルブレイク攻撃に対するMLLMの堅牢性を一貫して改善することができる。
論文 参考訳(メタデータ) (2024-03-14T15:57:13Z) - Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - Autoregressive Linguistic Steganography Based on BERT and Consistency
Coding [17.881686153284267]
言語ステガノグラフィ(LS)は、秘密情報をテキストに埋め込むことによって、コミュニケーションの存在を隠蔽する。
近年のアルゴリズムでは、言語モデル(LM)を用いてステガノグラフテキストを生成する。
本稿では,BERTと整合性符号化に基づく自己回帰型LSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-26T02:36:55Z) - Leveraging Generative Models for Covert Messaging: Challenges and Tradeoffs for "Dead-Drop" Deployments [10.423657458233713]
自然言語テキストの生成モデルは、メッセージ転送ビットをモデルからサンプルのシーケンスにエンコードし、最終的にはもっともらしい自然言語のカバーテキストを生成する。
このようなパイプラインの自然な適用、すなわち、大規模でパブリックなインターネットプラットフォーム上での"デッドドロップ"の隠蔽メッセージングを考慮することで、これらの課題を具体化します。
このモデルベースのフォーマット変換暗号化パイプラインにシステムを実装し、その性能と(ヒューリスティックな)セキュリティを実証分析する。
論文 参考訳(メタデータ) (2021-10-13T20:05:26Z) - Provably Secure Generative Linguistic Steganography [29.919406917681282]
提案手法は, 新規にセキュアな生成言語分類法ADGである。
ADGは、市販の言語モデルによって与えられる確率に応じて、トークンの適応動的グループ化によって秘密情報を埋め込む。
論文 参考訳(メタデータ) (2021-06-03T17:27:10Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z) - Contextualized Perturbation for Textual Adversarial Attack [56.370304308573274]
逆例は自然言語処理(NLP)モデルの脆弱性を明らかにする。
本稿では,フロートおよび文法的出力を生成するContextualized AdversaRial Example生成モデルであるCLAREを提案する。
論文 参考訳(メタデータ) (2020-09-16T06:53:15Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。