論文の概要: Scapegoat Generation for Privacy Protection from Deepfake
- arxiv url: http://arxiv.org/abs/2303.02930v1
- Date: Mon, 6 Mar 2023 06:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:50:51.530021
- Title: Scapegoat Generation for Privacy Protection from Deepfake
- Title(参考訳): deepfakeによるプライバシ保護のためのscapegoat生成
- Authors: Gido Kato, Yoshihiro Fukuhara, Mariko Isogawa, Hideki Tsunashima,
Hirokatsu Kataoka, Shigeo Morishima
- Abstract要約: 本稿では,原文入力のスタイルを変更してスケープゴート画像を生成する「ディープフェイク防止のための新しい問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
- 参考スコア(独自算出の注目度): 21.169776378130635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect privacy and prevent malicious use of deepfake, current studies
propose methods that interfere with the generation process, such as detection
and destruction approaches. However, these methods suffer from sub-optimal
generalization performance to unseen models and add undesirable noise to the
original image. To address these problems, we propose a new problem formulation
for deepfake prevention: generating a ``scapegoat image'' by modifying the
style of the original input in a way that is recognizable as an avatar by the
user, but impossible to reconstruct the real face. Even in the case of
malicious deepfake, the privacy of the users is still protected. To achieve
this, we introduce an optimization-based editing method that utilizes GAN
inversion to discourage deepfake models from generating similar scapegoats. We
validate the effectiveness of our proposed method through quantitative and user
studies.
- Abstract(参考訳): プライバシーを保護し、ディープフェイクの悪質な使用を防止するために、最近の研究は、検出や破壊アプローチのような生成プロセスを妨げる方法を提案している。
しかし、これらの手法は、目に見えないモデルに対する準最適一般化性能に悩まされ、元の画像に望ましくないノイズを加える。
そこで本研究では,ユーザによってアバターとして認識されるが,実際の顔の再構築が不可能な方法で,元の入力のスタイルを変更することで,「スケープゴート画像」を生成するディープフェイク防止のための新たな問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
そこで本研究では,GANインバージョンを利用した最適化ベースの編集手法を提案する。
提案手法の有効性を定量的およびユーザ研究により検証する。
関連論文リスト
- Protective Perturbations against Unauthorized Data Usage in Diffusion-based Image Generation [15.363134355805764]
拡散に基づくテキスト・ツー・イメージモデルは、様々な画像関連タスクに対して大きな可能性を示してきた。
認証されていないデータを使ってこれらのモデルをカスタマイズすることは、深刻なプライバシーと知的財産の問題を引き起こす。
既存の方法は、敵の攻撃に基づく保護的摂動を導入する。
本稿では,拡散画像生成における不正なデータ使用を防止するための保護摂動法について検討する。
論文 参考訳(メタデータ) (2024-12-25T06:06:41Z) - FaceShield: Defending Facial Image against Deepfake Threats [11.78218702283404]
犯罪活動におけるディープフェイクの使用の増加は重大な問題を示し、広範な論争を引き起こしている。
拡散モデル(DM)が生み出すディープフェイクを標的とした新たな攻撃戦略を提案する。
提案手法は3つの主要要素からなる: (i) DMの注意機構を操作し, 認知過程において保護された顔の特徴を排除し, (ii) 敵の摂動の堅牢性を高めるために顕著な顔特徴抽出モデルをターゲットにし, (iii) ガウス的ぼかしとローパスフィルタリング技術を用いてJPEG歪みに対する頑健性を高めつつ, 知覚能力を向上させる。
論文 参考訳(メタデータ) (2024-12-13T07:20:35Z) - Local Features Meet Stochastic Anonymization: Revolutionizing Privacy-Preserving Face Recognition for Black-Box Models [54.88064975480573]
プライバシー保護顔認証(PPFR)の課題は現在、2つの未解決課題に直面している。
グローバルな特徴の破壊と局所的な特徴の強化により,ブラックボックス環境においても効果的に認識できる。
本手法は,ブラックボックスモデルの平均認識精度94.21%を達成し,プライバシ保護とアンチコンストラクションの両面で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-12-11T10:49:15Z) - Anti-Reference: Universal and Immediate Defense Against Reference-Based Generation [24.381813317728195]
反参照は、参照ベースの生成技術によって引き起こされる脅威から画像を保護する新しい方法である。
本研究では,微調整に基づくカスタマイズ手法に対する共同攻撃を可能にする一元的損失関数を提案する。
提案手法は特定の転送攻撃能力を示し,グレーボックスモデルといくつかの商用APIの両方に効果的に挑戦する。
論文 参考訳(メタデータ) (2024-12-08T16:04:45Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。