論文の概要: Dynamically Allocated Interval-Based Generative Linguistic Steganography with Roulette Wheel
- arxiv url: http://arxiv.org/abs/2401.15656v5
- Date: Fri, 28 Mar 2025 02:24:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 18:43:59.504647
- Title: Dynamically Allocated Interval-Based Generative Linguistic Steganography with Roulette Wheel
- Title(参考訳): Roulette Wheel を用いた動的位置定位型言語ステレオグラフィ
- Authors: Yihao Wang, Ruiqi Song, Lingxiao Li, Ru Zhang, Jianyi Liu,
- Abstract要約: 既存の言語ステガノグラフィースキームは、しばしば候補プール内のトークンの条件付き確率(CP)を見落としている。
本稿では, DAIRstegaと呼ばれる, 割り当てられた間隔に基づくスキームを提案する。
- 参考スコア(独自算出の注目度): 10.72286166021398
- License:
- Abstract: Existing linguistic steganography schemes often overlook the conditional probability (CP) of tokens in the candidate pool, allocating the one coding to all tokens, which results in identical selection likelihoods. This approach leads to the selection of low-CP tokens, degrading the quality of stegos and making them more detectable. This paper proposes a scheme based on the interval allocated, called DAIRstega. DAIRstega first uses a portion of the read secret to build the roulette area. Then, this scheme uses the idea of the roulette wheel and takes the CPs of tokens as the main basis for allocating the roulette area (i.e., the interval length). Thus, tokens with larger CPs are allocated more area. The secret will have an increased likelihood of selecting a token with a higher CP. During allocation, we designed some allocation functions and three constraints to optimize the process. Additionally, DAIRstega supports prompt-based controllable generation of stegos. Rich experiments show that the proposed embedding way and DAIRstega perform better than the existing ways and baselines, which shows strong perceptual, statistical, and semantic concealment, as well as anti-steganalysis ability. It can also generate high-quality longer stegos, addressing the deficiencies in this task. DAIRstega is confirmed to have potential as a secure watermarking, offering insights for its development.
- Abstract(参考訳): 既存の言語ステガノグラフィースキームは、しばしば候補プール内のトークンの条件付き確率(CP)を見落とし、全てのトークンに符号化したものを割り当て、同じ選択可能性をもたらす。
このアプローチは低CPトークンの選択につながり、ステゴの質を劣化させ、より検出しやすくする。
本稿では, DAIRstegaと呼ばれる, 割り当てられた間隔に基づくスキームを提案する。
DAIRstegaはまず、読み取りシークレットの一部を使ってルーレットエリアを構築する。
次に、このスキームはルーレットホイールの考え方を使い、ルーレット領域(すなわち間隔の長さ)を割り当てる主要な基盤としてトークンのCPを用いる。
したがって、より大きなCPを持つトークンはより多くの領域に割り当てられる。
秘密は、より高いCPを持つトークンを選択する可能性を高める。
割り当ての間、プロセスの最適化のためにいくつかのアロケーション機能と3つの制約を設計しました。
さらに、DAIRstegaはプロンプトベースの制御可能なステゴの生成をサポートする。
豊かな実験により、提案された埋め込み方法とDAIRstegaは、強力な知覚的、統計的、意味的な隠蔽、および抗ステガナリシス能力を示す既存の方法やベースラインよりも優れた性能を示した。
また、このタスクの欠陥に対処するため、高品質な長いステゴを生成することもできる。
DAIRstegaは安全な透かしとして可能性があり、開発に洞察を与えている。
関連論文リスト
- Not all tokens are created equal: Perplexity Attention Weighted Networks for AI generated text detection [49.15148871877941]
大規模言語モデル(LLM)の検出に理論的に魅力的なアプローチを提供する次点分布出力
本稿では,LLMの最後の隠蔽状態を用いて,列長の次トーケン分布のメトリクスに基づく一連の特徴量の重み付けを行うパープレキシティ注意重み付けネットワーク(PAWN)を提案する。
PAWNは、トレーニング可能なパラメータのごく一部を持つ最強のベースラインよりも、競争力があり、より優れた分散性能を示している。
論文 参考訳(メタデータ) (2025-01-07T17:00:49Z) - FIRP: Faster LLM inference via future intermediate representation prediction [54.897493351694195]
FIRPはデコードステップ毎に1つではなく複数のトークンを生成する。
いくつかのモデルとデータセットで1.9x-3xのスピードアップ比を示す広範な実験を行った。
論文 参考訳(メタデータ) (2024-10-27T15:53:49Z) - Contextualized Sequence Likelihood: Enhanced Confidence Scores for Natural Language Generation [37.63939774027709]
種々のトークンに異なる重みを割り当てることで予測シーケンス確率を向上させることを提案する。
我々はこの新しいスコアを文脈化シーケンス類似度(CSL)と呼ぶ。
論文 参考訳(メタデータ) (2024-06-03T21:55:07Z) - Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Provably Secure Disambiguating Neural Linguistic Steganography [66.30965740387047]
サブワードに基づく言語モデルを使用する際に生じるセグメンテーションの曖昧さ問題は、時にはデコード障害を引き起こす。
そこで我々はSyncPoolという,セグメンテーションのあいまいさ問題に効果的に対処する,セキュアな曖昧さ回避手法を提案する。
SyncPoolは、候補プールのサイズやトークンの分布を変えないため、確実に安全な言語ステガノグラフィー手法に適用できる。
論文 参考訳(メタデータ) (2024-03-26T09:25:57Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - BLISS: Robust Sequence-to-Sequence Learning via Self-Supervised Input
Representation [92.75908003533736]
本稿では,自己教師型入力表現を用いたフレームワークレベルの頑健なシーケンス・ツー・シーケンス学習手法BLISSを提案する。
我々は,機械翻訳,文法的誤り訂正,テキスト要約など,BLISSの様々なタスクにおける有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-04-16T16:19:47Z) - Autoregressive Linguistic Steganography Based on BERT and Consistency
Coding [17.881686153284267]
言語ステガノグラフィ(LS)は、秘密情報をテキストに埋め込むことによって、コミュニケーションの存在を隠蔽する。
近年のアルゴリズムでは、言語モデル(LM)を用いてステガノグラフテキストを生成する。
本稿では,BERTと整合性符号化に基づく自己回帰型LSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-26T02:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。