論文の概要: TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations
- arxiv url: http://arxiv.org/abs/2112.09151v1
- Date: Thu, 16 Dec 2021 19:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:09:07.605133
- Title: TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations
- Title(参考訳): TAFIM:顔画像操作に対する敵対的攻撃を狙う
- Authors: Shivangi Aneja, Lev Markhasin, Matthias Niessner
- Abstract要約: 顔画像操作手法は、個人のプライバシーに影響を与えるか、偽情報を広めることによって、懸念を引き起こす可能性がある。
本研究は,顔の操作がそもそも起こらないよう,前向きな防御法を提案する。
原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face image manipulation methods, despite having many beneficial applications
in computer graphics, can also raise concerns by affecting an individual's
privacy or spreading disinformation. In this work, we propose a proactive
defense to prevent face manipulation from happening in the first place. To this
end, we introduce a novel data-driven approach that produces image-specific
perturbations which are embedded in the original images. The key idea is that
these protected images prevent face manipulation by causing the manipulation
model to produce a predefined manipulation target (uniformly colored output
image in our case) instead of the actual manipulation. Compared to traditional
adversarial attacks that optimize noise patterns for each image individually,
our generalized model only needs a single forward pass, thus running orders of
magnitude faster and allowing for easy integration in image processing stacks,
even on resource-constrained devices like smartphones. In addition, we propose
to leverage a differentiable compression approximation, hence making generated
perturbations robust to common image compression. We further show that a
generated perturbation can simultaneously prevent against multiple manipulation
methods.
- Abstract(参考訳): 顔画像操作法は、コンピュータグラフィックスに多くの有益な応用があるにもかかわらず、個人のプライバシーに影響を与え、偽情報を広めることによって懸念を引き起こすことがある。
本研究では,顔の操作がそもそも起こらないよう積極的に防御する手法を提案する。
そこで本研究では,原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
鍵となる考え方は、これらの保護された画像は、実際の操作ではなく、事前に定義された操作対象(この場合、均一な色付き出力画像)を生成することにより、顔操作を防止することである。
画像毎のノイズパターンを個別に最適化する従来の敵攻撃と比較して、一般化されたモデルでは1つの前方通過しか必要とせず、桁違いに高速に実行でき、スマートフォンのようなリソース制約のあるデバイスでも簡単に画像処理スタックを統合できる。
さらに, 可変圧縮近似を応用し, 一般的な画像圧縮に頑健な摂動を実現することを提案する。
さらに,生成した摂動が複数の操作方法に対して同時に防止できることを示す。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Unsegment Anything by Simulating Deformation [67.10966838805132]
「無声化」とは、「無声化の権利」を画像に付与する作業である。
我々は、全てのプロンプトベースセグメンテーションモデルに対して、転送可能な敵攻撃を実現することを目指している。
本手法は, 画像エンコーダの特徴を破壊し, 即時攻撃を実現することに焦点を当てる。
論文 参考訳(メタデータ) (2024-04-03T09:09:42Z) - FoolSDEdit: Deceptively Steering Your Edits Towards Targeted
Attribute-aware Distribution [34.3949228829163]
我々は、SDEditに特定の属性に一致した特定のデータ分布を生成するよう強制する敵攻撃を構築する。
本稿では,属性認識目的関数を用いたTAGA(Targeted Attribute Generative Attack)を提案し,入力ストローク絵に付加される対向雑音を最適化する。
実験により,本手法はSDEditに,属性認識データ分布をターゲットとして生成し,ベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-02-06T04:56:43Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。