論文の概要: UnGANable: Defending Against GAN-based Face Manipulation
- arxiv url: http://arxiv.org/abs/2210.00957v1
- Date: Mon, 3 Oct 2022 14:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 14:49:17.705552
- Title: UnGANable: Defending Against GAN-based Face Manipulation
- Title(参考訳): unganable:ganベースの顔操作に対する防御
- Authors: Zheng Li and Ning Yu and Ahmed Salem and Michael Backes and Mario
Fritz and Yang Zhang
- Abstract要約: ディープフェイクは、私たちの社会に視覚的誤報の深刻な脅威をもたらす。
1つの代表的なディープフェイク応用は、画像中の被害者の顔属性を変更する顔操作である。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
- 参考スコア(独自算出の注目度): 69.90981797810348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfakes pose severe threats of visual misinformation to our society. One
representative deepfake application is face manipulation that modifies a
victim's facial attributes in an image, e.g., changing her age or hair color.
The state-of-the-art face manipulation techniques rely on Generative
Adversarial Networks (GANs). In this paper, we propose the first defense
system, namely UnGANable, against GAN-inversion-based face manipulation. In
specific, UnGANable focuses on defending GAN inversion, an essential step for
face manipulation. Its core technique is to search for alternative images
(called cloaked images) around the original images (called target images) in
image space. When posted online, these cloaked images can jeopardize the GAN
inversion process. We consider two state-of-the-art inversion techniques
including optimization-based inversion and hybrid inversion, and design five
different defenses under five scenarios depending on the defender's background
knowledge. Extensive experiments on four popular GAN models trained on two
benchmark face datasets show that UnGANable achieves remarkable effectiveness
and utility performance, and outperforms multiple baseline methods. We further
investigate four adaptive adversaries to bypass UnGANable and show that some of
them are slightly effective.
- Abstract(参考訳): ディープフェイクは我々の社会に視覚的な誤情報の深刻な脅威をもたらす。
代表的なディープフェイクの応用の1つは、年齢や髪の色など、画像中の被害者の顔の特徴を変更する顔操作である。
最先端の顔操作技術はGAN(Generative Adversarial Networks)に依存している。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
特にunganableは、顔操作の重要なステップであるganの反転を守ることに焦点を当てている。
その中心となる技術は、画像空間内の元の画像(ターゲット画像と呼ばれる)を取り巻く代替画像(クローク画像と呼ばれる)を探すことである。
オンラインに投稿すると、これらのクロークされた画像は、GANの反転プロセスを危険にさらすことができる。
最適化に基づく逆転とハイブリッドな逆転を含む2つの最先端の逆転手法を考察し、5つのシナリオの下で5つの異なる防御を設計する。
2つのベンチマークフェイスデータセットでトレーニングされた4つの人気ganモデルの広範囲な実験は、unganableが顕著な有効性と実用性を達成し、複数のベースラインメソッドを上回ることを示している。
さらに,4つの適応的敵を回避し,その一部はわずかに効果的であることを示す。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - ReliableSwap: Boosting General Face Swapping Via Reliable Supervision [9.725105108879717]
本稿では,訓練中に対象とソースの同一性が異なる場合のイメージレベルのガイダンスとして機能する,サイクルトリプレットと呼ばれる信頼性の高い監視機能を構築することを提案する。
具体的には,顔の再現とブレンディング技術を用いて,前もって実際の画像からスワップされた顔の合成を行う。
フェーススワッピングフレームワークであるReliableSwapは、既存のフェースワップネットワークの性能を無視できるオーバーヘッドで向上させることができる。
論文 参考訳(メタデータ) (2023-06-08T17:01:14Z) - MorphGANFormer: Transformer-based Face Morphing and De-Morphing [55.211984079735196]
顔変形に対するスタイルGANベースのアプローチが主要な技術である。
本稿では,顔の変形に対する変換器ベースの代替手段を提案し,その利点をStyleGANベースの方法と比較した。
論文 参考訳(メタデータ) (2023-02-18T19:09:11Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - GAN Inversion: A Survey [125.62848237531945]
GANインバージョンは、与えられたイメージを事前に訓練されたGANモデルの潜在空間に戻すことを目的としている。
GANインバージョンは、StyleGANやBigGANなどの事前トレーニングされたGANモデルを実際の画像編集アプリケーションに使用できるようにする上で重要な役割を果たします。
論文 参考訳(メタデータ) (2021-01-14T14:11:00Z) - SLGAN: Style- and Latent-guided Generative Adversarial Network for
Desirable Makeup Transfer and Removal [44.290305928805836]
人間の顔の写真に化粧を施すために、生成的敵ネットワークを使用する場合、考慮すべき5つの特徴がある。
いくつかの関連研究が提案されており、主にGAN(Generative Adversarial Network)を用いている。
本稿では,革新的なスタイルと潜在誘導型GAN(SLGAN)でギャップを埋める。
論文 参考訳(メタデータ) (2020-09-16T08:54:20Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。