論文の概要: SparSamp: Efficient Provably Secure Steganography Based on Sparse Sampling
- arxiv url: http://arxiv.org/abs/2503.19499v1
- Date: Tue, 25 Mar 2025 09:47:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:53:18.665065
- Title: SparSamp: Efficient Provably Secure Steganography Based on Sparse Sampling
- Title(参考訳): SparSamp:スパースサンプリングに基づく効率の良い安全ステガノグラフィ
- Authors: Yaofei Wang, Gang Pei, Kejiang Chen, Jinyang Ding, Chao Pan, Weilong Pang, Donghui Hu, Weiming Zhang,
- Abstract要約: ステガノグラフィーは、一見無害な通信の中に機密データを埋め込む。
既存の手法は、セキュリティと効率の間に重要なトレードオフに直面している。
本稿では,スパースサンプリングに基づく効率よく安全なステガノグラフィー手法であるSparSampを紹介する。
- 参考スコア(独自算出の注目度): 22.635637723051463
- License:
- Abstract: Steganography embeds confidential data within seemingly innocuous communications. Provable security in steganography, a long-sought goal, has become feasible with deep generative models. However, existing methods face a critical trade-off between security and efficiency. This paper introduces SparSamp, an efficient provably secure steganography method based on sparse sampling. SparSamp embeds messages by combining them with pseudo-random numbers to obtain message-derived random numbers for sampling. It enhances extraction accuracy and embedding capacity by increasing the sampling intervals and making the sampling process sparse. SparSamp preserves the original probability distribution of the generative model, thus ensuring security. It introduces only $O(1)$ additional complexity per sampling step, enabling the fastest embedding speed without compromising generation speed. SparSamp is designed to be plug-and-play; message embedding can be achieved by simply replacing the sampling component of an existing generative model with SparSamp. We implemented SparSamp in text, image, and audio generation models. It can achieve embedding speeds of up to 755 bits/second with GPT-2, 5046 bits/second with DDPM, and 9,223 bits/second with WaveRNN.
- Abstract(参考訳): ステガノグラフィーは、一見無害な通信の中に機密データを埋め込む。
長期にわたる目標であるステガノグラフィーの確率的セキュリティは、深い生成モデルで実現可能になった。
しかし、既存の手法は、セキュリティと効率の重大なトレードオフに直面している。
本稿では,スパースサンプリングに基づく効率よく安全なステガノグラフィー手法であるSparSampを紹介する。
SparSampは、メッセージを擬似ランダム数と組み合わせて、サンプリングのためにメッセージ由来のランダム数を取得する。
サンプリング間隔を増大させ、サンプリング工程をスパース化することにより、抽出精度と埋め込み能力を向上させる。
SparSampは生成モデルの元の確率分布を保存し、セキュリティを確保する。
サンプリングステップあたりのO(1)$追加の複雑さのみを導入し、生成速度を損なうことなく、最速の埋め込み速度を実現する。
SparSampはプラグインとプレイ用に設計されており、既存の生成モデルのサンプリングコンポーネントをSparSampに置き換えることで、メッセージの埋め込みを実現することができる。
我々はテキスト、画像、音声生成モデルにSparSampを実装した。
GPT-2で最大755ビット/秒、DDPMで5046ビット/秒、WaveRNNで9,223ビット/秒の埋め込み速度を実現している。
関連論文リスト
- SAM Decoding: Speculative Decoding via Suffix Automaton [22.289906743980445]
本稿では,検索に基づく新しい投機的復号法を提案する。
共通テキストコーパスと動的テキストシーケンスを利用して、効率よく正確なドラフト生成のために接尾辞オートマトンを適応する。
Spec-Benchの実験から,本手法は他のSD法よりも18%以上高速であることがわかった。
論文 参考訳(メタデータ) (2024-11-16T02:02:49Z) - A Block Metropolis-Hastings Sampler for Controllable Energy-based Text
Generation [78.81021361497311]
我々は,大規模言語モデルの反復的プロンプトを通じて,各ステップにおけるシーケンス全体の書き直しを提案する新しいメトロポリス・ハスティングス(MH)サンプリング器を開発した。
対象分布からより効率的かつ正確なサンプリングが可能となり, (b) 事前に固定するのではなく, サンプリング手順により生成長を決定することが可能となった。
論文 参考訳(メタデータ) (2023-12-07T18:30:15Z) - UniPC: A Unified Predictor-Corrector Framework for Fast Sampling of
Diffusion Models [92.43617471204963]
拡散確率モデル(DPM)は高分解能画像合成において非常に有望な能力を示した。
我々は既存のDPMサンプリング器の後に適用可能な統一補正器(UniC)を開発し、精度を向上する。
そこで我々は,DPMの高速サンプリングのためのUniPCと呼ばれる統合予測器・相関器フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-09T18:59:48Z) - Accelerating Large Language Model Decoding with Speculative Sampling [9.851546623666588]
投機的サンプリング(英: Speculative sample)とは、変換器の呼び出し毎に複数のトークンを生成することで、変換器の復号を高速化するアルゴリズムである。
我々は、70億のパラメータ言語モデルであるChinchillaを用いて投機的サンプリングをベンチマークし、分散セットアップで2-2.5倍のデコード速度を達成する。
論文 参考訳(メタデータ) (2023-02-02T18:44:11Z) - ProDiff: Progressive Fast Diffusion Model For High-Quality
Text-to-Speech [63.780196620966905]
本稿では,高品質テキスト合成のためのプログレッシブ高速拡散モデルであるProDiffを提案する。
ProDiffはクリーンデータを直接予測することでデノナイジングモデルをパラメータ化し、サンプリングを高速化する際の品質劣化を回避する。
評価の結果,高忠実度メル-スペクトログラムの合成にProDiffは2回しか要しないことがわかった。
ProDiffは1つのNVIDIA 2080Ti GPU上で、サンプリング速度をリアルタイムより24倍高速にする。
論文 参考訳(メタデータ) (2022-07-13T17:45:43Z) - Paraformer: Fast and Accurate Parallel Transformer for
Non-autoregressive End-to-End Speech Recognition [62.83832841523525]
そこで我々はParaformerと呼ばれる高速かつ高精度な並列トランスを提案する。
出力トークンの数を正確に予測し、隠れた変数を抽出する。
10倍以上のスピードアップで、最先端のARトランスフォーマーに匹敵するパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2022-06-16T17:24:14Z) - FastDiff: A Fast Conditional Diffusion Model for High-Quality Speech
Synthesis [90.3069686272524]
本稿では,高品質音声合成のための高速条件拡散モデルであるFastDiffを提案する。
FastDiffは、長期の依存関係を効率的にモデル化するために、さまざまな受容的フィールドパターンの時間認識可能な位置可変の畳み込みを使用する。
我々は、FastDiffに基づいて、高忠実度音声波形を生成するエンドツーエンドのテキスト音声合成器FastDiff-TTSを設計する。
論文 参考訳(メタデータ) (2022-04-21T07:49:09Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Scalable quantum random number generator for cryptography based on the
random flip-flop approach [1.2578844450585998]
単一光子アバランシェダイオード(SPAD)における光電効果をランダム性の原因とする量子乱数生成器(QRNG)を提案する。
2つの主要な欠陥のうち、バイアスはハードウェアの欠陥にのみ起因している。
論文 参考訳(メタデータ) (2021-02-24T11:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。