論文の概要: Securing Fixed Neural Network Steganography
- arxiv url: http://arxiv.org/abs/2309.09700v1
- Date: Mon, 18 Sep 2023 12:07:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 13:41:24.490042
- Title: Securing Fixed Neural Network Steganography
- Title(参考訳): 固定型ニューラルネットワークステガノグラフィの確保
- Authors: Zicong Luo, Sheng Li, Guobiao Li, Zhenxing Qian and Xinpeng Zhang
- Abstract要約: 画像ステガノグラフィー(英: Image steganography)は、画像に秘密情報を隠蔽する技術であり、無許可の当事者には受け入れられない。
最近の進歩は、秘密の埋め込みと抽出に固定ニューラルネットワーク(FNN)を使用することが可能であることを示している。
キーベースのFNNSスキームを提案し,FNNSの安全性を向上させる。
- 参考スコア(独自算出の注目度): 37.08937194546323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image steganography is the art of concealing secret information in images in
a way that is imperceptible to unauthorized parties. Recent advances show that
is possible to use a fixed neural network (FNN) for secret embedding and
extraction. Such fixed neural network steganography (FNNS) achieves high
steganographic performance without training the networks, which could be more
useful in real-world applications. However, the existing FNNS schemes are
vulnerable in the sense that anyone can extract the secret from the
stego-image. To deal with this issue, we propose a key-based FNNS scheme to
improve the security of the FNNS, where we generate key-controlled
perturbations from the FNN for data embedding. As such, only the receiver who
possesses the key is able to correctly extract the secret from the stego-image
using the FNN. In order to improve the visual quality and undetectability of
the stego-image, we further propose an adaptive perturbation optimization
strategy by taking the perturbation cost into account. Experimental results
show that our proposed scheme is capable of preventing unauthorized secret
extraction from the stego-images. Furthermore, our scheme is able to generate
stego-images with higher visual quality than the state-of-the-art FNNS scheme,
especially when the FNN is a neural network for ordinary learning tasks.
- Abstract(参考訳): 画像ステガノグラフィ(英: image steganography)とは、画像に秘密情報を隠す技術で、不正な当事者には受け入れられない。
最近の進歩により、秘密の埋め込みと抽出に固定ニューラルネットワーク(fnn)を使うことができる。
このような固定型ニューラルネットワークステガノグラフィ(FNNS)は、ネットワークをトレーニングせずに高いステガノグラフィのパフォーマンスを達成する。
しかし、既存のFNNSスキームは、誰でもステゴイメージから秘密を抽出できるという意味で脆弱である。
この問題に対処するために、FNNSのセキュリティを改善するためのキーベースのFNNSスキームを提案し、データ埋め込みのためのFNNから鍵制御摂動を生成する。
これにより、鍵を有する受信機のみ、FNNを用いてステゴイメージから秘密を正しく抽出することができる。
さらに,スチーゴ画像の視覚的品質と検出不能性を改善するため,摂動コストを考慮した適応的摂動最適化戦略を提案する。
実験の結果,提案手法はステゴイメージから無許可の秘密抽出を防止できることがわかった。
さらに,FNNが通常の学習タスクのためのニューラルネットワークである場合には,現状のFNNS方式よりも高画質のステゴイメージを生成することができる。
関連論文リスト
- Cover-separable Fixed Neural Network Steganography via Deep Generative Models [37.08937194546323]
我々は、Cs-FNNSという、カバー分離可能な固定ニューラルネットワークステレオグラフィーを提案する。
Cs-FNNSでは,シークレットデータを受容不能な摂動に直接エンコードするSPSアルゴリズムを提案する。
本稿では,視覚的品質と非検出性の観点から,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-16T05:47:06Z) - When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - TBSN: Transformer-Based Blind-Spot Network for Self-Supervised Image Denoising [94.09442506816724]
BSN(Blind-spot Network)は、自己教師型イメージデノベーション(SSID)において一般的なネットワークアーキテクチャである。
本稿では, ブラインドスポット要求を満たす変圧器演算子の解析と再設計により, 変圧器ベースブラインドスポットネットワーク(TBSN)を提案する。
空間的自己注意のために、注意行列に精巧なマスクを適用して受容場を制限し、拡張された畳み込みを模倣する。
チャネル自己アテンションについては,マルチスケールアーキテクチャの深層部において,チャネル数が空間的サイズよりも大きい場合,盲点情報を漏洩する可能性がある。
論文 参考訳(メタデータ) (2024-04-11T15:39:10Z) - Steganography of Steganographic Networks [23.85364443400414]
ステガノグラフィー(英: Steganography)は、2つの当事者間の秘密の通信技術である。
本稿では,ステガノグラフィーネットワークの新たなステガノグラフィー手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T12:27:34Z) - Hiding Images in Deep Probabilistic Models [58.23127414572098]
我々は、画像の深い確率モデルに隠蔽するための異なる計算フレームワークについて述べる。
具体的には、DNNを用いて、カバー画像の確率密度をモデル化し、学習した分布の特定の場所に秘密画像を隠す。
我々は,抽出精度とモデルセキュリティの観点から,SinGANアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2022-10-05T13:33:25Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - Noise-Response Analysis of Deep Neural Networks Quantifies Robustness
and Fingerprints Structural Malware [48.7072217216104]
ディープ・ニューラル・ネットワーク(DNN)は構造的マルウェア(すなわち、重みと活性化経路)を持つ
バックドアの検出は一般的に困難であり、既存の検出手法は計算に高価であり、膨大なリソースを必要とする(トレーニングデータへのアクセスなど)。
そこで本研究では,DNNの堅牢性,指紋の非線形性を定量化し,バックドアの検出を可能にする,高速な特徴生成手法を提案する。
実験の結果,既存の手法(秒対秒)よりも高い信頼度でバックドアを正確に検出できることが判明した。
論文 参考訳(メタデータ) (2020-07-31T23:52:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。