論文の概要: DiffWA: Diffusion Models for Watermark Attack
- arxiv url: http://arxiv.org/abs/2306.12790v1
- Date: Thu, 22 Jun 2023 10:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 14:44:09.731313
- Title: DiffWA: Diffusion Models for Watermark Attack
- Title(参考訳): DiffWA:ウォーターマーク攻撃のための拡散モデル
- Authors: Xinyu Li
- Abstract要約: ウォーターマーク攻撃のための距離誘導付き条件拡散モデルDiffWAを提案する。
提案手法のコアとなるのは,非透かし画像上の画像から画像への条件付き拡散モデルを訓練することである。
その結果, モデルが良好な効果で透かしを除去し, 透かし抽出のビット誤り率を0.4以上にすることができることがわかった。
- 参考スコア(独自算出の注目度): 8.102989872457156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rapid development of deep neural networks(DNNs), many robust blind
watermarking algorithms and frameworks have been proposed and achieved good
results. At present, the watermark attack algorithm can not compete with the
watermark addition algorithm. And many watermark attack algorithms only care
about interfering with the normal extraction of the watermark, and the
watermark attack will cause great visual loss to the image. To this end, we
propose DiffWA, a conditional diffusion model with distance guidance for
watermark attack, which can restore the image while removing the embedded
watermark. The core of our method is training an image-to-image conditional
diffusion model on unwatermarked images and guiding the conditional model using
a distance guidance when sampling so that the model will generate unwatermarked
images which is similar to original images. We conducted experiments on
CIFAR-10 using our proposed models. The results shows that the model can remove
the watermark with good effect and make the bit error rate of watermark
extraction higher than 0.4. At the same time, the attacked image will maintain
good visual effect with PSNR more than 31 and SSIM more than 0.97 compared with
the original image.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の急速な開発に伴い、多くの堅牢なブラインド透かしアルゴリズムとフレームワークが提案され、良好な結果が得られた。
現在、ウォーターマーク攻撃アルゴリズムはウォーターマーク加算アルゴリズムと競合することができない。
そして多くのウォーターマーク攻撃アルゴリズムは、ウォーターマークの通常の抽出と干渉することしか気にせず、ウォーターマーク攻撃は画像に大きな視覚損失を引き起こす。
そこで本稿では,透かし攻撃のための距離誘導付き条件拡散モデルであるDiffWAを提案し,埋め込み透かしを除去しながら画像の復元を行う。
本手法の中核は,無透かし画像に対する画像対画像条件拡散モデルを訓練し,サンプリング時の距離誘導を用いて条件付きモデルを誘導することで,原画像と類似した無透かし画像を生成することにある。
提案モデルを用いてCIFAR-10の実験を行った。
その結果,ウォーターマーク抽出のビット誤り率を0.4以上とすることで,効果のよいウォーターマークを除去できることがわかった。
同時に、攻撃された画像は、元の画像と比較して31以上のPSNRと0.97以上のSSIMで良好な視覚効果を維持する。
関連論文リスト
- A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Customized Watermarking for Deep Neural Networks via Label Distribution
Perturbation [3.3453601632404064]
そこで本研究では,本モデルと検出器を組み合わせて透かしを行うUnified Soft-label Perturbation (USP) と,モデル出力確率分布を付加して透かしを埋め込むCustomized Soft-label Perturbation (CSP) を新たに提案する。
我々は、メインタスクの精度に0.59%しか影響を与えず、98.68%の透かし精度を達成した。
論文 参考訳(メタデータ) (2022-08-10T08:27:26Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Generating Image Adversarial Examples by Embedding Digital Watermarks [38.93689142953098]
本稿では,DNN(Deep Neural Network, ディープ・ニューラル・ネットワーク)モデルに対する画像逆転例を生成する,新しいデジタル透かしに基づく手法を提案する。
ホスト画像と透かし画像を選択するための効率的な機構を考案し、改良された離散ウェーブレット変換(DWT)に基づく透かしアルゴリズムを利用する。
我々のスキームは、CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で、多数の敵例を効率的に生成することができる。
論文 参考訳(メタデータ) (2020-08-14T09:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。