論文の概要: Feature Extraction Matters More: Universal Deepfake Disruption through
Attacking Ensemble Feature Extractors
- arxiv url: http://arxiv.org/abs/2303.00200v1
- Date: Wed, 1 Mar 2023 03:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:11:11.154866
- Title: Feature Extraction Matters More: Universal Deepfake Disruption through
Attacking Ensemble Feature Extractors
- Title(参考訳): 特徴抽出がより重要:アンサンブル機能エクストラクタの攻撃によるユニバーサルディープフェイク破壊
- Authors: Long Tang, Dengpan Ye, Zhenhao Lu, Yunming Zhang, Shengshan Hu, Yue
Xu, Chuanxi Chen
- Abstract要約: 本稿では,ディープフェイクネットワークに対する新しい特徴出力アンサンブル・ユニバーサル・ディスラプター(FOUND)を提案する。
まず,多機能アグリゲーションと個別機能維持を通じて多モデル特徴抽出器をディスラプトし,その破壊効果を高めるための勾配アンサンブルアルゴリズムを開発した。
本手法は,少数のトレーニング画像のみを用いて,クロス属性,クロスイメージ,クロスモデルユニバーサルディープフェイクディスラプタを高速に取得できる。
- 参考スコア(独自算出の注目度): 9.441521905809699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial example is a rising way of protecting facial privacy security
from deepfake modification. To prevent massive facial images from being
illegally modified by various deepfake models, it is essential to design a
universal deepfake disruptor. However, existing works treat deepfake disruption
as an End-to-End process, ignoring the functional difference between feature
extraction and image reconstruction, which makes it difficult to generate a
cross-model universal disruptor. In this work, we propose a novel
Feature-Output ensemble UNiversal Disruptor (FOUND) against deepfake networks,
which explores a new opinion that considers attacking feature extractors as the
more critical and general task in deepfake disruption. We conduct an effective
two-stage disruption process. We first disrupt multi-model feature extractors
through multi-feature aggregation and individual-feature maintenance, and then
develop a gradient-ensemble algorithm to enhance the disruption effect by
simplifying the complex optimization problem of disrupting multiple End-to-End
models. Extensive experiments demonstrate that FOUND can significantly boost
the disruption effect against ensemble deepfake benchmark models. Besides, our
method can fast obtain a cross-attribute, cross-image, and cross-model
universal deepfake disruptor with only a few training images, surpassing
state-of-the-art universal disruptors in both success rate and efficiency.
- Abstract(参考訳): 敵の例は、顔認識のセキュリティをディープフェイク修正から保護する方法が増えていることだ。
様々なディープフェイクモデルによって大規模な顔画像が違法に修正されるのを防ぐために、ユニバーサルディープフェイクディスラプタを設計することが不可欠である。
しかし、既存の研究は、特徴抽出と画像再構成の機能的差異を無視して、ディープフェイク破壊をエンドツーエンドプロセスとして扱うため、クロスモデルユニバーサルディスラプタの生成が困難である。
本研究では,deepfakeネットワークに対する機能抽出を,より重要かつ一般的なタスクとみなした新たな提案として,deepfakeネットワークに対する機能アウトプットアンサンブルuniversal disruptor (found)を提案する。
効果的な二段階破壊処理を行う。
まず,マルチ機能アグリゲーションと個別機能維持を通じてマルチモデル特徴抽出器をディスラプトし,複数のエンド・ツー・エンドモデルをディスラプトする複雑な最適化問題を単純化し,ディストラクション効果を高めるグラデーション・センスブルアルゴリズムを開発した。
大規模な実験により、FOUNDはアンサンブルディープフェイクベンチマークモデルに対する破壊効果を著しく向上させることができることが示された。
さらに,クロス属性,クロスイメージ,クロスモデルユニバーサルディープフェイクディスラプタを,少数のトレーニングイメージで迅速に取得し,成功率と効率の両面で最先端のユニバーサルディスラプタを超えることができる。
関連論文リスト
- DiffusionFake: Enhancing Generalization in Deepfake Detection via Guided Stable Diffusion [94.46904504076124]
ディープフェイク技術は、顔交換を極めて現実的にし、偽造された顔コンテンツの使用に対する懸念を高めている。
既存の方法は、顔操作の多様な性質のため、目に見えない領域に一般化するのに苦労することが多い。
顔偽造者の生成過程を逆転させて検出モデルの一般化を促進する新しいフレームワークであるDiffusionFakeを紹介する。
論文 参考訳(メタデータ) (2024-10-06T06:22:43Z) - ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - D$^3$: Scaling Up Deepfake Detection by Learning from Discrepancy [11.239248133240126]
我々は、より一般化と堅牢性のある普遍的なディープフェイク検出システムに向けた一歩を踏み出した。
本稿では,複数のジェネレータから汎用的なアーティファクトを学習することを目的として,Drepancy Deepfake Detectorフレームワークを提案する。
本フレームワークは,ID性能を維持しながら,現在のSOTA法と比較してOOD検査の精度を5.3%向上させる。
論文 参考訳(メタデータ) (2024-04-06T10:45:02Z) - Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - One Noise to Rule Them All: Multi-View Adversarial Attacks with Universal Perturbation [1.4680035572775534]
本稿では,3次元物体認識における頑健な多視点対角的例を生成するために,新しい普遍摂動法を提案する。
単一のビューに制限された従来の攻撃とは異なり、我々のアプローチは複数の2Dイメージで動作し、実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-04-02T20:29:59Z) - LEAT: Towards Robust Deepfake Disruption in Real-World Scenarios via
Latent Ensemble Attack [11.764601181046496]
生成モデルによって作成された悪意のある視覚コンテンツであるディープフェイクは、社会にますます有害な脅威をもたらす。
近年のディープフェイクの損傷を積極的に軽減するために, 逆方向の摂動を用いてディープフェイクモデルの出力を妨害する研究が進められている。
そこで本研究では,Latent Ensemble ATtack (LEAT) と呼ばれる簡易かつ効果的なディスラプション手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T07:00:37Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Gated Multi-Resolution Transfer Network for Burst Restoration and
Enhancement [75.25451566988565]
低画質の原画像のバーストから空間的精度の高い高画質画像を再構成する新しいGated Multi-Resolution Transfer Network (GMTNet)を提案する。
5つのデータセットに関する詳細な実験分析は、我々のアプローチを検証し、バースト超解像、バーストデノイング、低照度バーストエンハンスメントのための最先端技術を設定する。
論文 参考訳(メタデータ) (2023-04-13T17:54:00Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。