論文の概要: CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes
- arxiv url: http://arxiv.org/abs/2105.10872v1
- Date: Sun, 23 May 2021 07:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-26 11:06:40.735917
- Title: CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes
- Title(参考訳): CMUA-Watermark: ディープフェイクのクロスモデルユニバーサルな対角線透かし
- Authors: Hao Huang, Yongtao Wang, Zhaoyu Chen, Yuheng Li, Zhi Tang, Wei Chu,
Jingdong Chen, Weisi Lin, Kai-Kuang Ma
- Abstract要約: ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
- 参考スコア(独自算出の注目度): 74.18502861399591
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Malicious application of deepfakes (i.e., technologies can generate target
faces or face attributes) has posed a huge threat to our society. The fake
multimedia content generated by deepfake models can harm the reputation and
even threaten the property of the person who has been impersonated.
Fortunately, the adversarial watermark could be used for combating deepfake
models, leading them to generate distorted images. The existing methods require
an individual training process for every facial image, to generate the
adversarial watermark against a specific deepfake model, which are extremely
inefficient. To address this problem, we propose a universal adversarial attack
method on deepfake models, to generate a Cross-Model Universal Adversarial
Watermark (CMUA-Watermark) that can protect thousands of facial images from
multiple deepfake models. Specifically, we first propose a cross-model
universal attack pipeline by attacking multiple deepfake models and combining
gradients from these models iteratively. Then we introduce a batch-based method
to alleviate the conflict of adversarial watermarks generated by different
facial images. Finally, we design a more reasonable and comprehensive
evaluation method for evaluating the effectiveness of the adversarial
watermark. Experimental results demonstrate that the proposed CMUA-Watermark
can effectively distort the fake facial images generated by deepfake models and
successfully protect facial images from deepfakes in real scenes.
- Abstract(参考訳): ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらした。
ディープフェイクモデルによって生成された偽のマルチメディアコンテンツは、評判を傷つけ、偽装された人の財産を脅かすことさえある。
幸いなことに、逆向きの透かしはディープフェイクモデルと戦うために使われ、歪んだ画像を生成する。
既存の手法では、特定のディープフェイクモデルに対する敵対的な透かしを生成するために、顔画像ごとに個別のトレーニングプロセスが必要である。
この問題に対処するために,複数のディープフェイクモデルから数千の顔画像を保護するクロスモデルユニバーサル・ディバイザリー・ウォーターマーク(CMUA-Watermark)を生成するために,ディープフェイクモデルに対するユニバーサル・ディバイザ・アタック手法を提案する。
具体的には,複数のディープフェイクモデルを攻撃し,これらのモデルの勾配を反復的に組み合わせ,クロスモデルユニバーサルアタックパイプラインを提案する。
そこで本研究では,異なる顔画像から発生する逆透かしの競合を緩和するバッチベース手法を提案する。
最後に,より合理的で総合的な評価手法を考案し,その効果を評価した。
実験の結果,cmua-watermarkは,ディープフェイクモデルが生成する偽顔画像を効果的に歪め,実際のシーンにおけるディープフェイクから顔画像を保護することができた。
関連論文リスト
- Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes [25.277040616599336]
近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T03:29:30Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。