論文の概要: Disrupting Deepfakes: Adversarial Attacks Against Conditional Image
Translation Networks and Facial Manipulation Systems
- arxiv url: http://arxiv.org/abs/2003.01279v3
- Date: Mon, 27 Apr 2020 19:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 22:34:23.836511
- Title: Disrupting Deepfakes: Adversarial Attacks Against Conditional Image
Translation Networks and Facial Manipulation Systems
- Title(参考訳): Disrupting Deepfakes: 条件付き画像翻訳ネットワークと顔操作システムに対する敵対的攻撃
- Authors: Nataniel Ruiz, Sarah Adel Bargal, Stan Sclaroff
- Abstract要約: ディープラーニングを用いた顔修正システムは、ますます強力でアクセスしやすくなってきた。
これらのシステムは、異なる表情とポーズの下で、同じ人の新しいイメージを生成することができる。
毛髪の色や年齢などの対象属性を修正できるシステムもある。
悪意のあるユーザが同意なく修正画像を生成するのを防止するため,敵攻撃を発生させる問題に対処する。
- 参考スコア(独自算出の注目度): 37.91090081295844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face modification systems using deep learning have become increasingly
powerful and accessible. Given images of a person's face, such systems can
generate new images of that same person under different expressions and poses.
Some systems can also modify targeted attributes such as hair color or age.
This type of manipulated images and video have been coined Deepfakes. In order
to prevent a malicious user from generating modified images of a person without
their consent we tackle the new problem of generating adversarial attacks
against such image translation systems, which disrupt the resulting output
image. We call this problem disrupting deepfakes. Most image translation
architectures are generative models conditioned on an attribute (e.g. put a
smile on this person's face). We are first to propose and successfully apply
(1) class transferable adversarial attacks that generalize to different
classes, which means that the attacker does not need to have knowledge about
the conditioning class, and (2) adversarial training for generative adversarial
networks (GANs) as a first step towards robust image translation networks.
Finally, in gray-box scenarios, blurring can mount a successful defense against
disruption. We present a spread-spectrum adversarial attack, which evades blur
defenses. Our open-source code can be found at
https://github.com/natanielruiz/disrupting-deepfakes.
- Abstract(参考訳): ディープラーニングを用いた顔修正システムはますます強力でアクセスしやすいものになりつつある。
人の顔の画像が与えられた場合、そのようなシステムは異なる表情やポーズの下で同じ人物の新しい画像を生成することができる。
毛髪の色や年齢などの対象属性を修正できるシステムもある。
この種の操作された画像とビデオはDeepfakesと呼ばれている。
悪意のあるユーザが同意なく修正画像を生成するのを防止するため、このような画像翻訳システムに対する敵攻撃を発生させる新たな問題に対処し、結果の出力画像を破壊する。
この問題をディープフェイクを混乱させる問題と呼びます
ほとんどの画像翻訳アーキテクチャは、属性に基づいた生成モデルである(例えば、この人の顔に笑顔を置く)。
まず,(1)異なるクラスに一般化するクラス転送可能な敵攻撃を提案する。つまり,攻撃者は条件付けクラスに関する知識を必要とせず,(2)画像翻訳ネットワークの堅牢化に向けた第一歩として,GAN(Generative Adversarial Network)に対する敵対的訓練を行う。
最後に、グレーボックスのシナリオでは、ぼやけは破壊に対する防御を成功させる。
本稿では,ぼやけた防御を避けた広帯域対向攻撃を提案する。
当社のオープンソースコードはhttps://github.com/natanielruiz/disrupting-deepfakesにあります。
関連論文リスト
- Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - UnGANable: Defending Against GAN-based Face Manipulation [69.90981797810348]
ディープフェイクは、私たちの社会に視覚的誤報の深刻な脅威をもたらす。
1つの代表的なディープフェイク応用は、画像中の被害者の顔属性を変更する顔操作である。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
論文 参考訳(メタデータ) (2022-10-03T14:20:01Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Adversarial defenses via a mixture of generators [0.0]
敵対的な例は、深層学習システムの比較的弱い特徴として残っています。
本研究では,複数の敵攻撃を同時に行うことで,このようなシステムを監督せずに訓練することが可能であることを示す。
本システムでは,MNISTデータセットのアタックやデータラベルを使用せずに,未確認例のクラス情報を復元することができる。
論文 参考訳(メタデータ) (2021-10-05T21:27:50Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Defending against GAN-based Deepfake Attacks via Transformation-aware
Adversarial Faces [36.87244915810356]
Deepfakeは、機械学習モデルを活用するフェイススワッピング攻撃のカテゴリである。
本稿では,Deepfake攻撃に対する防御手段として,逆向きに乱れする新しい変形認識顔を提案する。
また, アンサンブルをベースとしたアプローチを用いて, GANベースのディープフェイク型に対する防御ロバスト性を高めることを提案する。
論文 参考訳(メタデータ) (2020-06-12T18:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。