論文の概要: Feature Extraction Matters More: Universal Deepfake Disruption through
Attacking Ensemble Feature Extractors
- arxiv url: http://arxiv.org/abs/2303.00200v1
- Date: Wed, 1 Mar 2023 03:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:11:11.154866
- Title: Feature Extraction Matters More: Universal Deepfake Disruption through
Attacking Ensemble Feature Extractors
- Title(参考訳): 特徴抽出がより重要:アンサンブル機能エクストラクタの攻撃によるユニバーサルディープフェイク破壊
- Authors: Long Tang, Dengpan Ye, Zhenhao Lu, Yunming Zhang, Shengshan Hu, Yue
Xu, Chuanxi Chen
- Abstract要約: 本稿では,ディープフェイクネットワークに対する新しい特徴出力アンサンブル・ユニバーサル・ディスラプター(FOUND)を提案する。
まず,多機能アグリゲーションと個別機能維持を通じて多モデル特徴抽出器をディスラプトし,その破壊効果を高めるための勾配アンサンブルアルゴリズムを開発した。
本手法は,少数のトレーニング画像のみを用いて,クロス属性,クロスイメージ,クロスモデルユニバーサルディープフェイクディスラプタを高速に取得できる。
- 参考スコア(独自算出の注目度): 9.441521905809699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial example is a rising way of protecting facial privacy security
from deepfake modification. To prevent massive facial images from being
illegally modified by various deepfake models, it is essential to design a
universal deepfake disruptor. However, existing works treat deepfake disruption
as an End-to-End process, ignoring the functional difference between feature
extraction and image reconstruction, which makes it difficult to generate a
cross-model universal disruptor. In this work, we propose a novel
Feature-Output ensemble UNiversal Disruptor (FOUND) against deepfake networks,
which explores a new opinion that considers attacking feature extractors as the
more critical and general task in deepfake disruption. We conduct an effective
two-stage disruption process. We first disrupt multi-model feature extractors
through multi-feature aggregation and individual-feature maintenance, and then
develop a gradient-ensemble algorithm to enhance the disruption effect by
simplifying the complex optimization problem of disrupting multiple End-to-End
models. Extensive experiments demonstrate that FOUND can significantly boost
the disruption effect against ensemble deepfake benchmark models. Besides, our
method can fast obtain a cross-attribute, cross-image, and cross-model
universal deepfake disruptor with only a few training images, surpassing
state-of-the-art universal disruptors in both success rate and efficiency.
- Abstract(参考訳): 敵の例は、顔認識のセキュリティをディープフェイク修正から保護する方法が増えていることだ。
様々なディープフェイクモデルによって大規模な顔画像が違法に修正されるのを防ぐために、ユニバーサルディープフェイクディスラプタを設計することが不可欠である。
しかし、既存の研究は、特徴抽出と画像再構成の機能的差異を無視して、ディープフェイク破壊をエンドツーエンドプロセスとして扱うため、クロスモデルユニバーサルディスラプタの生成が困難である。
本研究では,deepfakeネットワークに対する機能抽出を,より重要かつ一般的なタスクとみなした新たな提案として,deepfakeネットワークに対する機能アウトプットアンサンブルuniversal disruptor (found)を提案する。
効果的な二段階破壊処理を行う。
まず,マルチ機能アグリゲーションと個別機能維持を通じてマルチモデル特徴抽出器をディスラプトし,複数のエンド・ツー・エンドモデルをディスラプトする複雑な最適化問題を単純化し,ディストラクション効果を高めるグラデーション・センスブルアルゴリズムを開発した。
大規模な実験により、FOUNDはアンサンブルディープフェイクベンチマークモデルに対する破壊効果を著しく向上させることができることが示された。
さらに,クロス属性,クロスイメージ,クロスモデルユニバーサルディープフェイクディスラプタを,少数のトレーニングイメージで迅速に取得し,成功率と効率の両面で最先端のユニバーサルディスラプタを超えることができる。
関連論文リスト
- LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Gated Multi-Resolution Transfer Network for Burst Restoration and
Enhancement [75.25451566988565]
低画質の原画像のバーストから空間的精度の高い高画質画像を再構成する新しいGated Multi-Resolution Transfer Network (GMTNet)を提案する。
5つのデータセットに関する詳細な実験分析は、我々のアプローチを検証し、バースト超解像、バーストデノイング、低照度バーストエンハンスメントのための最先端技術を設定する。
論文 参考訳(メタデータ) (2023-04-13T17:54:00Z) - PC-GANs: Progressive Compensation Generative Adversarial Networks for
Pan-sharpening [50.943080184828524]
空間情報とスペクトル情報の漸進的補償によりMS画像のシャープ化を行うパンシャーピングの新しい2段階モデルを提案する。
モデル全体が三重GANで構成されており、特定のアーキテクチャに基づいて、三重GANを同時に訓練できるように、共同補償損失関数が設計されている。
論文 参考訳(メタデータ) (2022-07-29T03:09:21Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Universal Adversarial Perturbations Through the Lens of Deep
Steganography: Towards A Fourier Perspective [78.05383266222285]
人間の知覚不能な摂動は、ほとんどの画像のディープニューラルネットワーク(DNN)をだますために生成することができる。
ディープステガノグラフィタスクでは同様の現象が観測されており、デコーダネットワークはわずかに乱れたカバー画像から秘密の画像を取得することができる。
1)攻撃と隠蔽を同時に行うユニバーサル・シークレット・アドバイサル・パーターベーション(USAP)、(2)人間の目では見えないハイパスUAP(HP-UAP)の2つの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:26:39Z) - OGAN: Disrupting Deepfakes with an Adversarial Attack that Survives
Training [0.0]
我々は,対面型オートエンコーダを妨害する敵攻撃のクラスを導入する。
我々は,Oscillating GAN(OGAN)攻撃を提案する。
これらの結果は、広範囲のドメインに適用可能な、訓練耐性の敵攻撃の存在を示すものである。
論文 参考訳(メタデータ) (2020-06-17T17:18:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。