論文の概要: A Content-Preserving Secure Linguistic Steganography
- arxiv url: http://arxiv.org/abs/2511.12565v1
- Date: Sun, 16 Nov 2025 11:50:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.379562
- Title: A Content-Preserving Secure Linguistic Steganography
- Title(参考訳): コンテンツ保存型セキュア言語ステレオグラフィ
- Authors: Lingyun Xiang, Chengfu Ou, Xu He, Zhongliang Yang, Yuling Liu,
- Abstract要約: カバーテキストを変更することなく、完全にセキュアなカバート通信を実現するためのコンテンツ保存型言語ステガノグラフィーパラダイムを提案する。
CLstegaは、制御可能な分散変換を通じて秘密メッセージを埋め込む新しい方法である。
実験の結果,CLstegaは100%の抽出成功率を達成でき,既存のセキュリティ手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 21.247775412166117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing linguistic steganography methods primarily rely on content transformations to conceal secret messages. However, they often cause subtle yet looking-innocent deviations between normal and stego texts, posing potential security risks in real-world applications. To address this challenge, we propose a content-preserving linguistic steganography paradigm for perfectly secure covert communication without modifying the cover text. Based on this paradigm, we introduce CLstega (\textit{C}ontent-preserving \textit{L}inguistic \textit{stega}nography), a novel method that embeds secret messages through controllable distribution transformation. CLstega first applies an augmented masking strategy to locate and mask embedding positions, where MLM(masked language model)-predicted probability distributions are easily adjustable for transformation. Subsequently, a dynamic distribution steganographic coding strategy is designed to encode secret messages by deriving target distributions from the original probability distributions. To achieve this transformation, CLstega elaborately selects target words for embedding positions as labels to construct a masked sentence dataset, which is used to fine-tune the original MLM, producing a target MLM capable of directly extracting secret messages from the cover text. This approach ensures perfect security of secret messages while fully preserving the integrity of the original cover text. Experimental results show that CLstega can achieve a 100\% extraction success rate, and outperforms existing methods in security, effectively balancing embedding capacity and security.
- Abstract(参考訳): 既存の言語ステガノグラフィー手法は、主に秘密メッセージを隠すためのコンテンツ変換に依存している。
しかし、それらはしばしば、通常のテキストとステゴテキストの間に微妙に不明瞭に偏りを生じさせ、現実世界のアプリケーションに潜在的なセキュリティリスクを生じさせる。
この課題に対処するために、カバーテキストを変更することなく、完全にセキュアなカバート通信を実現するためのコンテンツ保存型言語ステガノグラフィーパラダイムを提案する。
このパラダイムに基づいてCLstega(\textit{C}ontent-preserving \textit{L}inguistic \textit{stega}nography)を導入する。
CLstega はまず,MLM (masked language model) で予測される確率分布を変換に容易に調整可能な,埋め込み位置の探索とマスキングに拡張マスキング戦略を適用した。
その後、ターゲット分布を元の確率分布から導出し、シークレットメッセージを符号化する動的分布ステガノグラフ符号化戦略を設計する。
この変換を実現するため、CLstegaはラベルとして位置を埋め込むためのターゲット単語を精巧に選択し、元のMLMを微調整するマスク付き文データセットを構築し、カバーテキストから直接秘密メッセージを抽出できるターゲットMLMを生成する。
このアプローチは、オリジナルのカバーテキストの完全性を維持しながら、シークレットメッセージの完全なセキュリティを保証する。
実験の結果,CLstegaは100倍の抽出成功率を達成でき,既存のセキュリティ手法よりも優れており,埋め込み能力とセキュリティのバランスが効果的であることがわかった。
関連論文リスト
- A high-capacity linguistic steganography based on entropy-driven rank-token mapping [81.29800498695899]
言語ステガノグラフィーは、秘密のメッセージを無害なテキストに埋め込むことによって、秘密のコミュニケーションを可能にする。
従来の修正ベースの手法は検出可能な異常を導入し、検索ベースの戦略は埋め込み能力の低下に悩まされている。
本稿では、ランクベース適応符号化と文脈認識の圧縮を正規化エントロピーと統合したRTMStegaというエントロピー駆動のフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-27T06:02:47Z) - The Double-edged Sword of LLM-based Data Reconstruction: Understanding and Mitigating Contextual Vulnerability in Word-level Differential Privacy Text Sanitization [53.51921540246166]
我々は,言語大モデル (LLM) がDP対応テキストの文脈的脆弱性を活用可能であることを示す。
LLM再建の二重刃剣効果がプライバシーと実用性に与える影響を実験的に明らかにした。
本稿では,データ再構成を後処理のステップとして使用するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-08-26T12:22:45Z) - Robust Steganography from Large Language Models [1.5749416770494704]
頑健なステガノグラフィーの問題点について検討する。
任意の秘密メッセージを自然言語テキストに埋め込む構造を設計し,実装する。
論文 参考訳(メタデータ) (2025-04-11T21:06:36Z) - Shifting-Merging: Secure, High-Capacity and Efficient Steganography via Large Language Models [25.52890764952079]
ステガノグラフィーは、無実のテキストの中にメッセージを安全に隠す方法を提供する。
大規模言語モデル(LLM)は高品質で明示的な分布を提供する。
ShiMer は LLM 分布の確率区間を擬似ランダムにシフトしてプライベート分布を得る。
論文 参考訳(メタデータ) (2025-01-01T09:51:15Z) - Knowing Where to Focus: Attention-Guided Alignment for Text-based Person Search [64.15205542003056]
本稿では,AGM(Atention-Guided Mask)モデリングとTEM(Text Enrichment Module)という,2つの革新的なコンポーネントを備えたAGA(Atention-Guided Alignment)フレームワークを紹介する。
AGA は CUHK-PEDES と ICFG-PEDES と RSTP でそれぞれ78.36%、67.31%、67.4% に達した。
論文 参考訳(メタデータ) (2024-12-19T17:51:49Z) - Effective Message Hiding with Order-Preserving Mechanisms [0.0]
StegaFormerはビット順序を保存し、モジュール間のグローバルな融合を可能にするように設計されたフレームワークである。
StegaFormerは、リカバリの正確性、メッセージキャパシティ、不可避性の点で、既存の最先端メソッドを超越している。
論文 参考訳(メタデータ) (2024-02-29T13:44:19Z) - Silent Guardian: Protecting Text from Malicious Exploitation by Large Language Models [63.91178922306669]
大規模言語モデル(LLM)に対するテキスト保護機構であるSilent Guardianを紹介する。
保護されるテキストを慎重に修正することで、TPEはLDMを誘導して最初にエンドトークンをサンプリングし、直接相互作用を終了させることができる。
本研究では,SGがターゲットテキストを種々の構成で効果的に保護し,保護成功率の約100%を達成できることを示す。
論文 参考訳(メタデータ) (2023-12-15T10:30:36Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - General Framework for Reversible Data Hiding in Texts Based on Masked
Language Modeling [15.136429369639686]
本稿では,秘密情報を所定のカバーテキストに埋め込むための一般的なフレームワークを提案する。
マーキングされたテキストから埋め込み情報及び元のカバーテキストを完全検索することができる。
この結果から,原文のカバーテキストと秘密情報の埋め込みと抽出に成功できることが示唆された。
論文 参考訳(メタデータ) (2022-06-21T05:02:49Z) - Autoregressive Linguistic Steganography Based on BERT and Consistency
Coding [17.881686153284267]
言語ステガノグラフィ(LS)は、秘密情報をテキストに埋め込むことによって、コミュニケーションの存在を隠蔽する。
近年のアルゴリズムでは、言語モデル(LM)を用いてステガノグラフテキストを生成する。
本稿では,BERTと整合性符号化に基づく自己回帰型LSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-26T02:36:55Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。