論文の概要: GTSD: Generative Text Steganography Based on Diffusion Model
- arxiv url: http://arxiv.org/abs/2504.19433v1
- Date: Mon, 28 Apr 2025 02:42:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.290679
- Title: GTSD: Generative Text Steganography Based on Diffusion Model
- Title(参考訳): GTSD:拡散モデルに基づく生成テキストステレオグラフィ
- Authors: Zhengxian Wu, Juan Wen, Yiming Xue, Ziwei Zhang, Yinghan Zhou,
- Abstract要約: 本稿では,拡散モデル(GTSD)に基づく生成テキストステガノグラフィー手法を提案する。
プロンプトマッピングは、秘密情報を条件付きプロンプトにマッピングし、事前訓練された拡散モデルが候補文のバッチを生成する。
バッチマッピングは、候補文のバッチから秘密情報に基づいてステゴテキストを選択する。
- 参考スコア(独自算出の注目度): 21.996779455449094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of deep learning, existing generative text steganography methods based on autoregressive models have achieved success. However, these autoregressive steganography approaches have certain limitations. Firstly, existing methods require encoding candidate words according to their output probability and generating each stego word one by one, which makes the generation process time-consuming. Secondly, encoding and selecting candidate words changes the sampling probabilities, resulting in poor imperceptibility of the stego text. Thirdly, existing methods have low robustness and cannot resist replacement attacks. To address these issues, we propose a generative text steganography method based on a diffusion model (GTSD), which improves generative speed, robustness, and imperceptibility while maintaining security. To be specific, a novel steganography scheme based on diffusion model is proposed to embed secret information through prompt mapping and batch mapping. The prompt mapping maps secret information into a conditional prompt to guide the pre-trained diffusion model generating batches of candidate sentences. The batch mapping selects stego text based on secret information from batches of candidate sentences. Extensive experiments show that the GTSD outperforms the SOTA method in terms of generative speed, robustness, and imperceptibility while maintaining comparable anti-steganalysis performance. Moreover, we verify that the GTSD has strong potential: embedding capacity is positively correlated with prompt capacity and model batch sizes while maintaining security.
- Abstract(参考訳): ディープラーニングの急速な発展に伴い、自己回帰モデルに基づく既存の生成テキストステガノグラフィー手法が成功している。
しかし、これらの自己回帰的ステガノグラフィーアプローチには一定の限界がある。
まず、既存の手法では、その出力確率に応じて候補単語を符号化し、各ステゴ語を1つずつ生成し、生成プロセスに時間を要する。
第二に、候補単語の符号化と選択によりサンプリング確率が変化し、ステゴテキストの認識能力が低下する。
第三に、既存の手法はロバスト性が低く、代替攻撃に抵抗することができない。
これらの問題に対処するために,拡散モデル(GTSD)に基づく生成テキストステガノグラフィー手法を提案する。
具体的には,拡散モデルに基づく新しいステガノグラフィー手法を提案し,プロンプトマッピングとバッチマッピングを通じて秘密情報を埋め込む。
プロンプトマッピングは、秘密情報を条件付きプロンプトにマッピングし、候補文のバッチを生成する事前学習拡散モデルを誘導する。
バッチマッピングは、候補文のバッチから秘密情報に基づいてステゴテキストを選択する。
広範囲な実験により, GTSDはSOTA法よりも高い生成速度, 頑健性, 不受容性を示しながら, 同等の抗ステガナシス性能を維持している。
さらに,GTSDには高い可能性があることを確認する。埋め込み能力は,セキュリティを維持しながら,迅速なキャパシティとモデルバッチサイズと正の相関関係にある。
関連論文リスト
- Shifting-Merging: Secure, High-Capacity and Efficient Steganography via Large Language Models [25.52890764952079]
ステガノグラフィーは、無実のテキストの中にメッセージを安全に隠す方法を提供する。
大規模言語モデル(LLM)は高品質で明示的な分布を提供する。
ShiMer は LLM 分布の確率区間を擬似ランダムにシフトしてプライベート分布を得る。
論文 参考訳(メタデータ) (2025-01-01T09:51:15Z) - FreStega: A Plug-and-Play Method for Boosting Imperceptibility and Capacity in Generative Linguistic Steganography for Real-World Scenarios [0.0]
言語学的ステガノグラフィーは、秘密情報を一見無実のテキストに埋め込んで、監視環境におけるプライバシーを保護している。
本稿では,FreStegaを提案する。FreStegaは,生成言語ステガノグラフィに使用される言語モデルの分布を再構成するプラグイン・アンド・プレイ方式である。
論文 参考訳(メタデータ) (2024-12-27T13:56:51Z) - DiffusionAttacker: Diffusion-Driven Prompt Manipulation for LLM Jailbreak [51.8218217407928]
大規模言語モデル (LLM) は、慎重に入力を行うと有害なコンテンツを生成する可能性がある。
本稿では,拡散モデルにインスパイアされたジェイルブレイク書き換えのためのエンドツーエンド生成手法であるDiffusionAttackerを紹介する。
論文 参考訳(メタデータ) (2024-12-23T12:44:54Z) - Detecting, Explaining, and Mitigating Memorization in Diffusion Models [49.438362005962375]
そこで本研究では,テキスト条件予測の大きさを検査することで,暗黙のプロンプトを検出する方法を提案する。
提案手法はサンプリングアルゴリズムを中断することなくシームレスに統合し,第1世代でも高い精度を実現する。
検出戦略に基づいて,個々の単語やトークンの記憶への寄与を示す説明可能なアプローチを提示する。
論文 参考訳(メタデータ) (2024-07-31T16:13:29Z) - Provably Secure Disambiguating Neural Linguistic Steganography [66.30965740387047]
サブワードに基づく言語モデルを使用する際に生じるセグメンテーションの曖昧さ問題は、時にはデコード障害を引き起こす。
そこで我々はSyncPoolという,セグメンテーションのあいまいさ問題に効果的に対処する,セキュアな曖昧さ回避手法を提案する。
SyncPoolは、候補プールのサイズやトークンの分布を変えないため、確実に安全な言語ステガノグラフィー手法に適用できる。
論文 参考訳(メタデータ) (2024-03-26T09:25:57Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Provably Secure Generative Linguistic Steganography [29.919406917681282]
提案手法は, 新規にセキュアな生成言語分類法ADGである。
ADGは、市販の言語モデルによって与えられる確率に応じて、トークンの適応動的グループ化によって秘密情報を埋め込む。
論文 参考訳(メタデータ) (2021-06-03T17:27:10Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。