論文の概要: Watermark Vaccine: Adversarial Attacks to Prevent Watermark Removal
- arxiv url: http://arxiv.org/abs/2207.08178v1
- Date: Sun, 17 Jul 2022 13:50:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 17:22:36.582351
- Title: Watermark Vaccine: Adversarial Attacks to Prevent Watermark Removal
- Title(参考訳): 透かしワクチン:透かし除去を防ぐための敵攻撃
- Authors: Xinwei Liu, Jian Liu, Yang Bai, Jindong Gu, Tao Chen, Xiaojun Jia,
Xiaochun Cao
- Abstract要約: 本稿では,対人機械学習による対人防御機構を提案する。
破壊性ウォーターマークワクチン(DWV)は、透かし除去ネットワークを通過した後、宿主のイメージと透かしを破滅させる。
Inerasable Watermark Vaccine(IWV)は、透かしが取り除かれないようにし、目立たないようにする別の方法だ。
- 参考スコア(独自算出の注目度): 69.10633149787252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a common security tool, visible watermarking has been widely applied to
protect copyrights of digital images. However, recent works have shown that
visible watermarks can be removed by DNNs without damaging their host images.
Such watermark-removal techniques pose a great threat to the ownership of
images. Inspired by the vulnerability of DNNs on adversarial perturbations, we
propose a novel defence mechanism by adversarial machine learning for good.
From the perspective of the adversary, blind watermark-removal networks can be
posed as our target models; then we actually optimize an imperceptible
adversarial perturbation on the host images to proactively attack against
watermark-removal networks, dubbed Watermark Vaccine. Specifically, two types
of vaccines are proposed. Disrupting Watermark Vaccine (DWV) induces to ruin
the host image along with watermark after passing through watermark-removal
networks. In contrast, Inerasable Watermark Vaccine (IWV) works in another
fashion of trying to keep the watermark not removed and still noticeable.
Extensive experiments demonstrate the effectiveness of our DWV/IWV in
preventing watermark removal, especially on various watermark removal networks.
- Abstract(参考訳): 一般的なセキュリティツールとして、可視透かしはデジタル画像の著作権を保護するために広く使われている。
しかし、最近の研究では、ホストイメージを傷つけることなく、DNNによって見える透かしを除去できることが示されている。
このような透かし除去技術は、画像の所有権に大きな脅威をもたらす。
敵の摂動に対するDNNの脆弱性に触発されて,敵の機械学習による防御機構を提案する。
対象とするモデルとして盲目なウォーターマーク除去ネットワークを提示し, ホスト画像に対する知覚不能な逆向きの摂動を最適化し, ウォーターマークワクチン(watermark vaccine)と呼ばれるウォーターマーク除去ネットワークに対して積極的に攻撃する。
具体的には2種類のワクチンが提案されている。
破壊的なウォーターマークワクチン(DWV)は、ウォーターマーク除去ネットワークを通過した後、ウォーターマークとともにホストイメージを台無しにする。
対照的に、Inerasable Watermark Vaccine(IWV)は、透かしが取り除かれないようにし、目立たないようにする別の方法である。
DWV/IWVによる透かし除去の防止効果,特に各種透かし除去網における実証実験を行った。
関連論文リスト
- ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - DLOVE: A new Security Evaluation Tool for Deep Learning Based Watermarking Techniques [1.8416014644193066]
近年,ディープニューラルネットワーク(DNN)に基づく透かし技術が注目されている。
本稿では,異なるDNNベースの透かし技術について,詳細なセキュリティ解析を行った。
本稿では,Deep Learning-based OVErwriting (DLOVE) 攻撃と呼ばれる新たな攻撃方法を提案する。
論文 参考訳(メタデータ) (2024-07-09T05:18:14Z) - Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics [14.596038695008403]
現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
論文 参考訳(メタデータ) (2024-04-27T11:20:49Z) - A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。