論文の概要: Generating Image Adversarial Examples by Embedding Digital Watermarks
- arxiv url: http://arxiv.org/abs/2009.05107v2
- Date: Wed, 3 Aug 2022 18:00:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:58:12.685348
- Title: Generating Image Adversarial Examples by Embedding Digital Watermarks
- Title(参考訳): デジタル透かしの埋め込みによる画像逆例生成
- Authors: Yuexin Xiang, Tiantian Li, Wei Ren, Tianqing Zhu and Kim-Kwang Raymond
Choo
- Abstract要約: 本稿では,DNN(Deep Neural Network, ディープ・ニューラル・ネットワーク)モデルに対する画像逆転例を生成する,新しいデジタル透かしに基づく手法を提案する。
ホスト画像と透かし画像を選択するための効率的な機構を考案し、改良された離散ウェーブレット変換(DWT)に基づく透かしアルゴリズムを利用する。
我々のスキームは、CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で、多数の敵例を効率的に生成することができる。
- 参考スコア(独自算出の注目度): 38.93689142953098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing attention to deep neural network (DNN) models, attacks
are also upcoming for such models. For example, an attacker may carefully
construct images in specific ways (also referred to as adversarial examples)
aiming to mislead the DNN models to output incorrect classification results.
Similarly, many efforts are proposed to detect and mitigate adversarial
examples, usually for certain dedicated attacks. In this paper, we propose a
novel digital watermark-based method to generate image adversarial examples to
fool DNN models. Specifically, partial main features of the watermark image are
embedded into the host image almost invisibly, aiming to tamper with and damage
the recognition capabilities of the DNN models. We devise an efficient
mechanism to select host images and watermark images and utilize the improved
discrete wavelet transform (DWT) based Patchwork watermarking algorithm with a
set of valid hyperparameters to embed digital watermarks from the watermark
image dataset into original images for generating image adversarial examples.
The experimental results illustrate that the attack success rate on common DNN
models can reach an average of 95.47% on the CIFAR-10 dataset and the highest
at 98.71%. Besides, our scheme is able to generate a large number of
adversarial examples efficiently, concretely, an average of 1.17 seconds for
completing the attacks on each image on the CIFAR-10 dataset. In addition, we
design a baseline experiment using the watermark images generated by Gaussian
noise as the watermark image dataset that also displays the effectiveness of
our scheme. Similarly, we also propose the modified discrete cosine transform
(DCT) based Patchwork watermarking algorithm. To ensure repeatability and
reproducibility, the source code is available on GitHub.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)モデルへの注目が高まり、このようなモデルに対する攻撃も近く行われる。
例えば、攻撃者は、DNNモデルに誤った分類結果を出力することを目的とした、特定の方法で画像を構築する(逆例とも呼ばれる)。
同様に、敵の例を検出し、軽減するための多くの取り組みが提案されている。
本稿では,dnnモデルに対する画像逆例を生成するための,新しい電子透かしに基づく手法を提案する。
具体的には、透かし画像の部分的な特徴をホスト画像にほとんど見えなく埋め込んで、DNNモデルの認識能力を阻害し、損傷することを目的としている。
我々は、ホスト画像とウォーターマーク画像を選択するための効率的なメカニズムを考案し、改良された離散ウェーブレット変換(DWT)ベースのパッチワーク透かしアルゴリズムを用いて、ウォーターマーク画像データセットからデジタル透かしを元の画像に埋め込んで、画像の敵画像を生成する。
実験結果によると、一般的なDNNモデルの攻撃成功率は、CIFAR-10データセットで平均95.47%、最高98.71%に達する。
さらに,本手法では,CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で,多数の敵例を効率的に生成することができる。
また,本手法の有効性を示す透かし画像データセットとして,ガウス雑音によって生成された透かし画像を用いたベースライン実験を行う。
同様に、修正離散コサイン変換(DCT)に基づくパッチワークウォーターマーキングアルゴリズムも提案する。
再現性と再現性を確保するため、ソースコードはGitHubで入手できる。
関連論文リスト
- RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - DiffWA: Diffusion Models for Watermark Attack [8.102989872457156]
ウォーターマーク攻撃のための距離誘導付き条件拡散モデルDiffWAを提案する。
提案手法のコアとなるのは,非透かし画像上の画像から画像への条件付き拡散モデルを訓練することである。
その結果, モデルが良好な効果で透かしを除去し, 透かし抽出のビット誤り率を0.4以上にすることができることがわかった。
論文 参考訳(メタデータ) (2023-06-22T10:45:49Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。