論文の概要: TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations
- arxiv url: http://arxiv.org/abs/2112.09151v1
- Date: Thu, 16 Dec 2021 19:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 16:09:07.605133
- Title: TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations
- Title(参考訳): TAFIM:顔画像操作に対する敵対的攻撃を狙う
- Authors: Shivangi Aneja, Lev Markhasin, Matthias Niessner
- Abstract要約: 顔画像操作手法は、個人のプライバシーに影響を与えるか、偽情報を広めることによって、懸念を引き起こす可能性がある。
本研究は,顔の操作がそもそも起こらないよう,前向きな防御法を提案する。
原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face image manipulation methods, despite having many beneficial applications
in computer graphics, can also raise concerns by affecting an individual's
privacy or spreading disinformation. In this work, we propose a proactive
defense to prevent face manipulation from happening in the first place. To this
end, we introduce a novel data-driven approach that produces image-specific
perturbations which are embedded in the original images. The key idea is that
these protected images prevent face manipulation by causing the manipulation
model to produce a predefined manipulation target (uniformly colored output
image in our case) instead of the actual manipulation. Compared to traditional
adversarial attacks that optimize noise patterns for each image individually,
our generalized model only needs a single forward pass, thus running orders of
magnitude faster and allowing for easy integration in image processing stacks,
even on resource-constrained devices like smartphones. In addition, we propose
to leverage a differentiable compression approximation, hence making generated
perturbations robust to common image compression. We further show that a
generated perturbation can simultaneously prevent against multiple manipulation
methods.
- Abstract(参考訳): 顔画像操作法は、コンピュータグラフィックスに多くの有益な応用があるにもかかわらず、個人のプライバシーに影響を与え、偽情報を広めることによって懸念を引き起こすことがある。
本研究では,顔の操作がそもそも起こらないよう積極的に防御する手法を提案する。
そこで本研究では,原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
鍵となる考え方は、これらの保護された画像は、実際の操作ではなく、事前に定義された操作対象(この場合、均一な色付き出力画像)を生成することにより、顔操作を防止することである。
画像毎のノイズパターンを個別に最適化する従来の敵攻撃と比較して、一般化されたモデルでは1つの前方通過しか必要とせず、桁違いに高速に実行でき、スマートフォンのようなリソース制約のあるデバイスでも簡単に画像処理スタックを統合できる。
さらに, 可変圧縮近似を応用し, 一般的な画像圧縮に頑健な摂動を実現することを提案する。
さらに,生成した摂動が複数の操作方法に対して同時に防止できることを示す。
関連論文リスト
- FoolSDEdit: Deceptively Steering Your Edits Towards Targeted
Attribute-aware Distribution [34.3949228829163]
我々は、SDEditに特定の属性に一致した特定のデータ分布を生成するよう強制する敵攻撃を構築する。
本稿では,属性認識目的関数を用いたTAGA(Targeted Attribute Generative Attack)を提案し,入力ストローク絵に付加される対向雑音を最適化する。
実験により,本手法はSDEditに,属性認識データ分布をターゲットとして生成し,ベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2024-02-06T04:56:43Z) - IRAD: Implicit Representation-driven Image Resampling against
Adversarial Attacks [17.565882933884893]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Learning to Mask and Permute Visual Tokens for Vision Transformer
Pre-Training [59.923672191632065]
我々はMasked and Permuted Vision Transformer(MaPeT)という自己教師型事前学習手法を提案する。
MaPeTは、自動回帰および置換予測を使用して、パッチ内依存関係をキャプチャする。
以上の結果から,MaPeTはImageNet上での競合性能を実証した。
論文 参考訳(メタデータ) (2023-06-12T18:12:19Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Semantics-Guided Object Removal for Facial Images: with Broad
Applicability and Robust Style Preservation [29.162655333387452]
顔画像における物体の除去と画像の塗布は、顔画像を妨げる物体を特に標的にし、除去し、適切に再構成された顔画像に置き換えるタスクである。
U-netと変調ジェネレータを利用する2つの異なるアプローチは、それぞれに固有の利点があるが、それぞれの手法の固有の欠点にもかかわらず、このタスクに対して広く支持されている。
本稿では,SGIN(Semantics-Guided Inpainting Network)を提案する。
論文 参考訳(メタデータ) (2022-09-29T00:09:12Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Initiative Defense against Facial Manipulation [82.96864888025797]
本稿では,悪意あるユーザによって制御される顔操作モデルの性能を低下させるための,イニシアティブ・ディフェンスの新しい枠組みを提案する。
まず、サロゲートモデルを用いてターゲット操作モデルを模倣し、次に毒の摂動発生器を考案し、所望の毒を得る。
論文 参考訳(メタデータ) (2021-12-19T09:42:28Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。