論文の概要: RoWSFormer: A Robust Watermarking Framework with Swin Transformer for Enhanced Geometric Attack Resilience
- arxiv url: http://arxiv.org/abs/2409.14829v1
- Date: Mon, 23 Sep 2024 08:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 20:50:08.821572
- Title: RoWSFormer: A Robust Watermarking Framework with Swin Transformer for Enhanced Geometric Attack Resilience
- Title(参考訳): RoWSFormer: 幾何学的攻撃耐性を高めるスウィントランスフォーマーを備えたロバストな透かしフレームワーク
- Authors: Weitong Chen, Yuheng Li,
- Abstract要約: 本稿では,RoWSFormer という Swin Transformer をベースとしたロバストな透かしフレームワークを提案する。
具体的には、エンコーダとデコーダの両方のコアとして、ローカルチャネル拡張スウィントランスブロックを設計する。
多くの非幾何学的攻撃に対して、RoWSFormerは同じ抽出精度を維持しながらPSNRを3dB改善する。
幾何攻撃の場合、RoWSFormerはPSNRの6dB以上の改善を実現し、抽出精度は97%を超えた。
- 参考スコア(独自算出の注目度): 8.800187600977807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, digital watermarking techniques based on deep learning have been widely studied. To achieve both imperceptibility and robustness of image watermarks, most current methods employ convolutional neural networks to build robust watermarking frameworks. However, despite the success of CNN-based watermarking models, they struggle to achieve robustness against geometric attacks due to the limitations of convolutional neural networks in capturing global and long-range relationships. To address this limitation, we propose a robust watermarking framework based on the Swin Transformer, named RoWSFormer. Specifically, we design the Locally-Channel Enhanced Swin Transformer Block as the core of both the encoder and decoder. This block utilizes the self-attention mechanism to capture global and long-range information, thereby significantly improving adaptation to geometric distortions. Additionally, we construct the Frequency-Enhanced Transformer Block to extract frequency domain information, which further strengthens the robustness of the watermarking framework. Experimental results demonstrate that our RoWSFormer surpasses existing state-of-the-art watermarking methods. For most non-geometric attacks, RoWSFormer improves the PSNR by 3 dB while maintaining the same extraction accuracy. In the case of geometric attacks (such as rotation, scaling, and affine transformations), RoWSFormer achieves over a 6 dB improvement in PSNR, with extraction accuracy exceeding 97\%.
- Abstract(参考訳): 近年,ディープラーニングに基づく電子透かし技術が広く研究されている。
画像透かしの非知覚性と堅牢性の両方を達成するため、現在のほとんどの手法では畳み込みニューラルネットワークを用いて堅牢な透かしフレームワークを構築している。
しかし、CNNベースの透かしモデルの成功にもかかわらず、畳み込みニューラルネットワークがグローバルと長距離の関係を捉えているため、幾何学的攻撃に対する堅牢性を達成するのに苦労している。
この制限に対処するために,RoWSFormer という Swin Transformer をベースとした堅牢な透かしフレームワークを提案する。
具体的には、エンコーダとデコーダの両方のコアとして、ローカルチャネル拡張スウィントランスブロックを設計する。
このブロックは自己認識機構を利用して、グローバルおよび長距離情報をキャプチャし、幾何学的歪みへの適応を著しく改善する。
さらに、周波数拡張変換器ブロックを構築し、周波数領域情報を抽出し、透かしフレームワークの堅牢性をさらに強化する。
実験の結果、RoWSFormerは既存の最先端の透かし手法を超えていることがわかった。
多くの非幾何学的攻撃に対して、RoWSFormerは同じ抽出精度を維持しながらPSNRを3dB改善する。
幾何攻撃(回転、スケーリング、アフィン変換など)の場合、RoWSFormerはPSNRの6dB以上の改善を実現し、抽出精度は97\%を超える。
関連論文リスト
- Blind Deep-Learning-Based Image Watermarking Robust Against Geometric
Transformations [6.948186032020995]
提案手法は,透かし符号化と復号化にディープラーニングを用いた既存のHiDDeNアーキテクチャに基づいている。
私たちは、このアーキテクチャに新しいノイズ層、すなわち、微分可能なJPEG推定、回転、再スケーリング、翻訳、せん断、ミラーリングを追加します。
提案手法は,消費者の端末で見た画像の保護に利用することができる。
論文 参考訳(メタデータ) (2024-02-14T10:18:00Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Spread-Transform Dither Modulation Watermarking of Deep Neural Network [33.63490683496175]
本稿では,サイド情報パラダイムによる透かしを利用した新しいDNN透かしアルゴリズムを提案し,透かしの難易度を低減し,ペイロードを増加させる。
特に,ST-DM(Spread Transform Dither Modulation)による電子透かし方式は,従来のSSに基づく最近提案されたアルゴリズムの性能向上に寄与する。
論文 参考訳(メタデータ) (2020-12-28T10:23:17Z) - RAIN: A Simple Approach for Robust and Accurate Image Classification
Networks [156.09526491791772]
既存の敵防衛手法の大部分は、予測精度を犠牲にして堅牢性を実現することが示されている。
本稿では,ロバストおよび高精度画像分類N(RAIN)と呼ぶ新しい前処理フレームワークを提案する。
RAINは入力に対してランダム化を適用して、モデルフォワード予測パスと後方勾配パスの関係を壊し、モデルロバスト性を改善する。
STL10 と ImageNet のデータセットを用いて、様々な種類の敵攻撃に対する RAIN の有効性を検証する。
論文 参考訳(メタデータ) (2020-04-24T02:03:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。