論文の概要: Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces
- arxiv url: http://arxiv.org/abs/2006.07421v1
- Date: Fri, 12 Jun 2020 18:51:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:43:54.122466
- Title: Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces
- Title(参考訳): 変換認識によるGANに基づくディープフェイク攻撃に対する防御
- Authors: Chaofei Yang, Lei Ding, Yiran Chen, Hai Li
- Abstract要約: Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
- 参考スコア(独自算出の注目度): 36.87244915810356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfake represents a category of face-swapping attacks that leverage machine
learning models such as autoencoders or generative adversarial networks.
Although the concept of the face-swapping is not new, its recent technical
advances make fake content (e.g., images, videos) more realistic and
imperceptible to Humans. Various detection techniques for Deepfake attacks have
been explored. These methods, however, are passive measures against Deepfakes
as they are mitigation strategies after the high-quality fake content is
generated. More importantly, we would like to think ahead of the attackers with
robust defenses. This work aims to take an offensive measure to impede the
generation of high-quality fake images or videos. Specifically, we propose to
use novel transformation-aware adversarially perturbed faces as a defense
against GAN-based Deepfake attacks. Different from the naive adversarial faces,
our proposed approach leverages differentiable random image transformations
during the generation. We also propose to use an ensemble-based approach to
enhance the defense robustness against GAN-based Deepfake variants under the
black-box setting. We show that training a Deepfake model with adversarial
faces can lead to a significant degradation in the quality of synthesized
faces. This degradation is twofold. On the one hand, the quality of the
synthesized faces is reduced with more visual artifacts such that the
synthesized faces are more obviously fake or less convincing to human
observers. On the other hand, the synthesized faces can easily be detected
based on various metrics.
- Abstract(参考訳): deepfakeは、autoencoderやgenerative adversarial networksといった機械学習モデルを活用する、顔認識攻撃のカテゴリである。
フェイススワッピングの概念は新しいものではないが、最近の技術進歩により、偽のコンテンツ(画像、ビデオなど)をより現実的で人間には受け入れられないものにしている。
ディープフェイク攻撃の様々な検出技術が研究されている。
しかし、これらの手法は、高品質の偽コンテンツが生成される後の緩和戦略であるため、ディープフェイクに対する受動的措置である。
さらに重要なことは、強固な防御力を持つ攻撃者より先に考えることだ。
この研究は、高品質な偽画像やビデオの生成を阻害する攻撃的措置を取ることを目的としている。
具体的には,GANをベースとしたディープフェイク攻撃に対する防御手段として,逆向きに乱れを生じさせる新しい変形認識顔を提案する。
提案手法は, ナイーブな対向顔と異なり, 生成過程における微分可能なランダム画像変換を利用する。
また,ブラックボックス設定下でのGANベースのディープフェイクに対する防御ロバスト性を高めるために,アンサンブルに基づくアプローチを提案する。
逆顔を用いたディープフェイクモデルの訓練により,合成顔の品質が著しく低下する可能性が示唆された。
この劣化は2倍です。
一方、合成顔の品質は、合成顔が人間の観察者にとってより明らかにフェイクであるか、あるいはより説得力に欠けるような、より視覚的なアーティファクトによって低下する。
一方、合成された顔は様々な指標に基づいて容易に検出できる。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Evading Forensic Classifiers with Attribute-Conditioned Adversarial
Faces [6.105361899083232]
本研究では,特定の属性セットを用いて,敵対的な偽の顔を生成することができることを示す。
本稿では,StyleGANの機能空間内の逆潜時符号を探索するフレームワークを提案する。
また,メタラーニングに基づく最適化手法を提案し,未知のターゲットモデル上でのトランスファー可能な性能を実現する。
論文 参考訳(メタデータ) (2023-06-22T17:59:55Z) - UnGANable: Defending Against GAN-based Face Manipulation [69.90981797810348]
ディープフェイクは、私たちの社会に視覚的誤報の深刻な脅威をもたらす。
1つの代表的なディープフェイク応用は、画像中の被害者の顔属性を変更する顔操作である。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
論文 参考訳(メタデータ) (2022-10-03T14:20:01Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Exploring Adversarial Fake Images on Face Manifold [5.26916168336451]
強力な生成敵対ネットワーク(GAN)ベースの方法によって合成された画像は、道徳的およびプライバシー上の懸念を引き起こしている。
本稿では, 対向雑音を付加する代わりに, 顔多様体上の対向点を最適に探索し, 反forensic fake face imageを生成する。
論文 参考訳(メタデータ) (2021-01-09T02:08:59Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - OGAN: Disrupting Deepfakes with an Adversarial Attack that Survives
Training [0.0]
我々は,対面型オートエンコーダを妨害する敵攻撃のクラスを導入する。
我々は,Oscillating GAN(OGAN)攻撃を提案する。
これらの結果は、広範囲のドメインに適用可能な、訓練耐性の敵攻撃の存在を示すものである。
論文 参考訳(メタデータ) (2020-06-17T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。