論文の概要: FreStega: A Plug-and-Play Method for Boosting Imperceptibility and Capacity in Generative Linguistic Steganography for Real-World Scenarios
- arxiv url: http://arxiv.org/abs/2412.19652v2
- Date: Mon, 30 Dec 2024 07:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 12:42:24.263286
- Title: FreStega: A Plug-and-Play Method for Boosting Imperceptibility and Capacity in Generative Linguistic Steganography for Real-World Scenarios
- Title(参考訳): FreStega: 実世界のシナリオにおけるジェネレーティブ言語ステレオグラフィーにおける認識不能性と能力向上のためのプラグアンドプレイ手法
- Authors: Kaiyi Pang,
- Abstract要約: 言語学的ステガノグラフィーは、秘密情報を一見無実のテキストに埋め込んで、監視環境におけるプライバシーを保護している。
本稿では,FreStegaを提案する。FreStegaは,生成言語ステガノグラフィに使用される言語モデルの分布を再構成するプラグイン・アンド・プレイ方式である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Linguistic steganography embeds secret information in seemingly innocent texts, safeguarding privacy in surveillance environments. Generative linguistic steganography leverages the probability distribution of language models (LMs) and applies steganographic algorithms to generate stego tokens, gaining attention with recent Large Language Model (LLM) advancements. To enhance security, researchers develop distribution-preserving stego algorithms to minimize the gap between stego sampling and LM sampling. However, the reliance on language model distributions, coupled with deviations from real-world cover texts, results in insufficient imperceptibility when facing steganalysis detectors in real-world scenarios. Moreover, LLM distributions tend to be more deterministic, resulting in reduced entropy and, consequently, lower embedding capacity. In this paper, we propose FreStega, a plug-and-play method to reconstruct the distribution of language models used for generative linguistic steganography. FreStega dynamically adjusts token probabilities from the language model at each step of stegotext auto-regressive generation, leveraging both sequential and spatial dimensions. In sequential adjustment, the temperature is dynamically adjusted based on instantaneous entropy, enhancing the diversity of stego texts and boosting embedding capacity. In the spatial dimension, the distribution is aligned with guidance from the target domain corpus, closely mimicking real cover text in the target domain. By reforming the distribution, FreStega enhances the imperceptibility of stego text in practical scenarios and improves steganographic capacity by 15.41\%, all without compromising the quality of the generated text. FreStega serves as a plug-and-play remedy to enhance the imperceptibility and embedding capacity of existing distribution-preserving steganography methods in real-world scenarios.
- Abstract(参考訳): 言語学的ステガノグラフィーは、秘密情報を一見無実のテキストに埋め込んで、監視環境におけるプライバシーを保護している。
生成言語ステガノグラフィーは言語モデル(LM)の確率分布を利用し、ステガノグラフィーアルゴリズムを用いてステゴトークンを生成し、最近のLarge Language Model(LLM)の進歩で注目を集めている。
セキュリティを高めるため、ステゴサンプリングとLMサンプリングのギャップを最小限に抑えるために、分散保存ステゴアルゴリズムを開発した。
しかし、言語モデル分布への依存は、現実世界のカバーテキストからの逸脱と相まって、現実のシナリオでステガナリシス検出器に直面すると、認識不能な結果をもたらす。
さらに、LSM分布はより決定論的になり、エントロピーが減少し、結果として埋め込み能力が低下する傾向にある。
本稿では,FreStegaを提案する。FreStegaは,ジェネレーティブ言語ステガノグラフィに使用される言語モデルの分布を再構成するプラグイン・アンド・プレイ方式である。
FreStegaは、スチーゴテキスト自動回帰生成の各ステップで言語モデルからトークンの確率を動的に調整し、シーケンシャル次元と空間次元の両方を活用する。
逐次調整では、瞬時エントロピーに基づいて温度を動的に調整し、ステゴテキストの多様性を高め、埋め込み能力を高める。
空間次元では、分布は、対象領域の実際のカバーテキストを忠実に模倣して、対象領域のコーパスからのガイダンスと整合する。
FreStegaは、配信を改革することで、実際のシナリオにおけるステゴテキストの非受容性を向上し、生成したテキストの品質を損なうことなく、ステガノグラフィの容量を15.41\%向上させる。
FreStegaは、実世界のシナリオにおける既存の分散保存ステガノグラフィー手法の認識不能性と埋め込み能力を高めるためのプラグアンドプレイ療法として機能する。
関連論文リスト
- Training-free LLM-generated Text Detection by Mining Token Probability Sequences [18.955509967889782]
大規模言語モデル(LLM)は、様々な領域にまたがる高品質なテキストを生成する際、顕著な能力を示した。
統計的特徴を慎重に設計することで、固有の相違に焦点をあてたトレーニングフリーな手法は、一般化と解釈性の向上を提供する。
局所的および大域的統計を相乗化して検出を増強する,新しいトレーニング不要検出器である textbfLastde を導入する。
論文 参考訳(メタデータ) (2024-10-08T14:23:45Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - An Effective Deployment of Diffusion LM for Data Augmentation in Low-Resource Sentiment Classification [2.0930389307057427]
感性分類(SC)は、ドメイン固有のコンテキスト、不均衡なラベル分布、少数ショットシナリオなど、低リソースの課題に悩まされることが多い。
我々はDiffusion LMを提案し、強力なラベル関連トークンを再構成することでドメイン内の知識を捕捉し、擬似サンプルを生成する。
論文 参考訳(メタデータ) (2024-09-05T02:51:28Z) - Towards Next-Generation Steganalysis: LLMs Unleash the Power of Detecting Steganography [18.7168443402118]
言語ステガノグラフィーは、特にAI生成技術の出現と共に、メッセージを隠蔽するための便利な実装を提供する。
既存の手法は、記号統計学の側面から、ステガノグラフテキストと正規テキストの分布差を見つけることに限定されている。
本稿では,大規模言語モデル(LLM)のヒューマンライクなテキスト処理機能を用いて,人間の知覚との違いを実現することを提案する。
論文 参考訳(メタデータ) (2024-05-15T04:52:09Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - A Cheaper and Better Diffusion Language Model with Soft-Masked Noise [62.719656543880596]
Masked-Diffuse LMは言語モデリングのための新しい拡散モデルであり、言語の言語的特徴に触発されている。
具体的には,テキストデータのノイズを改善するために,戦略的ソフトマスキングによってテキストに劣化を加える言語情報処理を設計する。
我々は,我々のMasked-Diffuse LMが,高効率の最先端拡散モデルよりも優れた生成品質を達成できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:58:42Z) - Provably Secure Generative Linguistic Steganography [29.919406917681282]
提案手法は, 新規にセキュアな生成言語分類法ADGである。
ADGは、市販の言語モデルによって与えられる確率に応じて、トークンの適応動的グループ化によって秘密情報を埋め込む。
論文 参考訳(メタデータ) (2021-06-03T17:27:10Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。