論文の概要: STEAD: Robust Provably Secure Linguistic Steganography with Diffusion Language Model
- arxiv url: http://arxiv.org/abs/2601.14778v1
- Date: Wed, 21 Jan 2026 08:58:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.300183
- Title: STEAD: Robust Provably Secure Linguistic Steganography with Diffusion Language Model
- Title(参考訳): STEAD:拡散言語モデルを用いた言語ステレオグラフィーのロバスト化
- Authors: Yuang Qi, Na Zhao, Qiyi Yao, Benlong Wu, Weiming Zhang, Nenghai Yu, Kejiang Chen,
- Abstract要約: 拡散言語モデル(DLM)を用いた頑健で確実な言語ステガノグラフィーを提案する。
ステガノグラフ抽出中に擬似ランダム誤り訂正や近傍探索補正を含む誤り訂正戦略を導入する。
- 参考スコア(独自算出の注目度): 71.35577462669856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent provably secure linguistic steganography (PSLS) methods rely on mainstream autoregressive language models (ARMs) to address historically challenging tasks, that is, to disguise covert communication as ``innocuous'' natural language communication. However, due to the characteristic of sequential generation of ARMs, the stegotext generated by ARM-based PSLS methods will produce serious error propagation once it changes, making existing methods unavailable under an active tampering attack. To address this, we propose a robust, provably secure linguistic steganography with diffusion language models (DLMs). Unlike ARMs, DLMs can generate text in a partially parallel manner, allowing us to find robust positions for steganographic embedding that can be combined with error-correcting codes. Furthermore, we introduce error correction strategies, including pseudo-random error correction and neighborhood search correction, during steganographic extraction. Theoretical proof and experimental results demonstrate that our method is secure and robust. It can resist token ambiguity in stegotext segmentation and, to some extent, withstand token-level attacks of insertion, deletion, and substitution.
- Abstract(参考訳): 最近の確実な言語ステガノグラフィー(PSLS)手法は、歴史的に困難な課題に対処するために、主流の自己回帰言語モデル(ARM)に依存している。
しかし、ARMのシーケンシャルな生成の特徴から、ARMベースのPSLSメソッドが生成するステゴテキストは、変更後に重大なエラーの伝播を引き起こすため、既存のメソッドはアクティブなタンパリング攻撃で利用できない。
そこで本稿では,拡散言語モデル(DLM)を用いた堅牢で確実な言語ステガノグラフィを提案する。
ARMとは異なり、DLMはテキストを部分的に並列に生成できるため、誤り訂正符号と組み合わせることができるステガノグラフ埋め込みのための堅牢な位置を見つけることができる。
さらに、ステガノグラフ抽出中に擬似ランダム誤り訂正や近傍探索補正を含む誤り訂正戦略を導入する。
理論的証明と実験結果は,本手法が安全かつ堅牢であることを示している。
ステゴテキストセグメンテーションにおけるトークンの曖昧さに抵抗し、ある程度は、挿入、削除、置換のトークンレベルの攻撃に耐えることができる。
関連論文リスト
- Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [77.82885394684202]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - Robust Steganography from Large Language Models [1.5749416770494704]
頑健なステガノグラフィーの問題点について検討する。
任意の秘密メッセージを自然言語テキストに埋め込む構造を設計し,実装する。
論文 参考訳(メタデータ) (2025-04-11T21:06:36Z) - FreStega: A Plug-and-Play Method for Boosting Imperceptibility and Capacity in Generative Linguistic Steganography for Real-World Scenarios [0.0]
言語学的ステガノグラフィーは、秘密情報を一見無実のテキストに埋め込んで、監視環境におけるプライバシーを保護している。
本稿では,FreStegaを提案する。FreStegaは,生成言語ステガノグラフィに使用される言語モデルの分布を再構成するプラグイン・アンド・プレイ方式である。
論文 参考訳(メタデータ) (2024-12-27T13:56:51Z) - Provably Secure Disambiguating Neural Linguistic Steganography [66.30965740387047]
サブワードに基づく言語モデルを使用する際に生じるセグメンテーションの曖昧さ問題は、時にはデコード障害を引き起こす。
そこで我々はSyncPoolという,セグメンテーションのあいまいさ問題に効果的に対処する,セキュアな曖昧さ回避手法を提案する。
SyncPoolは、候補プールのサイズやトークンの分布を変えないため、確実に安全な言語ステガノグラフィー手法に適用できる。
論文 参考訳(メタデータ) (2024-03-26T09:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。