論文の概要: DLOVE: A new Security Evaluation Tool for Deep Learning Based Watermarking Techniques
- arxiv url: http://arxiv.org/abs/2407.06552v1
- Date: Tue, 9 Jul 2024 05:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 19:15:32.982623
- Title: DLOVE: A new Security Evaluation Tool for Deep Learning Based Watermarking Techniques
- Title(参考訳): DLOVE:ディープラーニングベースの透かし技術のための新しいセキュリティ評価ツール
- Authors: Sudev Kumar Padhi, Sk. Subidh Ali,
- Abstract要約: 近年,ディープニューラルネットワーク(DNN)に基づく透かし技術が注目されている。
本稿では,異なるDNNベースの透かし技術について,詳細なセキュリティ解析を行った。
本稿では,Deep Learning-based OVErwriting (DLOVE) 攻撃と呼ばれる新たな攻撃方法を提案する。
- 参考スコア(独自算出の注目度): 1.8416014644193066
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent developments in Deep Neural Network (DNN) based watermarking techniques have shown remarkable performance. The state-of-the-art DNN-based techniques not only surpass the robustness of classical watermarking techniques but also show their robustness against many image manipulation techniques. In this paper, we performed a detailed security analysis of different DNN-based watermarking techniques. We propose a new class of attack called the Deep Learning-based OVErwriting (DLOVE) attack, which leverages adversarial machine learning and overwrites the original embedded watermark with a targeted watermark in a watermarked image. To the best of our knowledge, this attack is the first of its kind. We have considered scenarios where watermarks are used to devise and formulate an adversarial attack in white box and black box settings. To show adaptability and efficiency, we launch our DLOVE attack analysis on seven different watermarking techniques, HiDDeN, ReDMark, PIMoG, Stegastamp, Aparecium, Distortion Agostic Deep Watermarking and Hiding Images in an Image. All these techniques use different approaches to create imperceptible watermarked images. Our attack analysis on these watermarking techniques with various constraints highlights the vulnerabilities of DNN-based watermarking. Extensive experimental results validate the capabilities of DLOVE. We propose DLOVE as a benchmark security analysis tool to test the robustness of future deep learning-based watermarking techniques.
- Abstract(参考訳): 近年,ディープニューラルネットワーク(DNN)に基づく透かし技術が注目されている。
最先端のDNNベースの技術は、従来の透かし技法の堅牢性を超えただけでなく、多くの画像操作技術に対する堅牢性を示している。
本稿では,異なるDNNベースの透かし技術について,詳細なセキュリティ解析を行った。
本稿では,DLOVE攻撃(Deep Learning-based OVErwriting)と呼ばれる新たな攻撃手法を提案する。
私たちの知る限りでは、この攻撃はこの種の攻撃としては初めてだ。
我々は,ホワイトボックスやブラックボックスの設定において,逆攻撃を考案・定式化するために透かしを使用するシナリオを検討した。
適応性と効率性を示すため,HDDeN,ReDMark,PIMoG,Stegastamp,Aparecium,Distortion Agostic Deep Watermarking,Hiding Imagesの7種類のウォーターマーキング技術を用いてDLOVE攻撃解析を行った。
これらの手法はすべて異なるアプローチを用いて、知覚不能な透かし画像を生成する。
種々の制約のあるウォーターマーキング手法に対する攻撃解析は,DNNベースのウォーターマーキングの脆弱性を浮き彫りにする。
広汎な実験結果からDLOVEの能力が検証された。
我々は,将来の深層学習に基づく透かし技術の堅牢性をテストするためのベンチマークセキュリティ解析ツールとして,DLOVEを提案する。
関連論文リスト
- Steganalysis on Digital Watermarking: Is Your Defense Truly Impervious? [21.06493827123594]
ステガナリシス攻撃は 最小限の知覚歪みで 透かしを抽出し除去できる
平均的な透かし画像の集合は、その下にある透かしパターンを明らかにすることができる。
本稿では,コンテンツ適応型透かし戦略とステガナリシスに対するセキュリティ評価を実施するためのセキュリティガイドラインを提案する。
論文 参考訳(メタデータ) (2024-06-13T12:01:28Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - WAVES: Benchmarking the Robustness of Image Watermarks [67.955140223443]
WAVES(Watermark Analysis Via Enhanced Stress-testing)は、画像透かしの堅牢性を評価するためのベンチマークである。
我々は,検出タスクと識別タスクを統合し,多様なストレステストからなる標準化された評価プロトコルを確立する。
我々はWAVESを,ロバストな透かしの将来の開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Watermark Vaccine: Adversarial Attacks to Prevent Watermark Removal [69.10633149787252]
本稿では,対人機械学習による対人防御機構を提案する。
破壊性ウォーターマークワクチン(DWV)は、透かし除去ネットワークを通過した後、宿主のイメージと透かしを破滅させる。
Inerasable Watermark Vaccine(IWV)は、透かしが取り除かれないようにし、目立たないようにする別の方法だ。
論文 参考訳(メタデータ) (2022-07-17T13:50:02Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。