論文の概要: Scapegoat Generation for Privacy Protection from Deepfake
- arxiv url: http://arxiv.org/abs/2303.02930v1
- Date: Mon, 6 Mar 2023 06:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 16:50:51.530021
- Title: Scapegoat Generation for Privacy Protection from Deepfake
- Title(参考訳): deepfakeによるプライバシ保護のためのscapegoat生成
- Authors: Gido Kato, Yoshihiro Fukuhara, Mariko Isogawa, Hideki Tsunashima,
Hirokatsu Kataoka, Shigeo Morishima
- Abstract要約: 本稿では,原文入力のスタイルを変更してスケープゴート画像を生成する「ディープフェイク防止のための新しい問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
- 参考スコア(独自算出の注目度): 21.169776378130635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect privacy and prevent malicious use of deepfake, current studies
propose methods that interfere with the generation process, such as detection
and destruction approaches. However, these methods suffer from sub-optimal
generalization performance to unseen models and add undesirable noise to the
original image. To address these problems, we propose a new problem formulation
for deepfake prevention: generating a ``scapegoat image'' by modifying the
style of the original input in a way that is recognizable as an avatar by the
user, but impossible to reconstruct the real face. Even in the case of
malicious deepfake, the privacy of the users is still protected. To achieve
this, we introduce an optimization-based editing method that utilizes GAN
inversion to discourage deepfake models from generating similar scapegoats. We
validate the effectiveness of our proposed method through quantitative and user
studies.
- Abstract(参考訳): プライバシーを保護し、ディープフェイクの悪質な使用を防止するために、最近の研究は、検出や破壊アプローチのような生成プロセスを妨げる方法を提案している。
しかし、これらの手法は、目に見えないモデルに対する準最適一般化性能に悩まされ、元の画像に望ましくないノイズを加える。
そこで本研究では,ユーザによってアバターとして認識されるが,実際の顔の再構築が不可能な方法で,元の入力のスタイルを変更することで,「スケープゴート画像」を生成するディープフェイク防止のための新たな問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
そこで本研究では,GANインバージョンを利用した最適化ベースの編集手法を提案する。
提案手法の有効性を定量的およびユーザ研究により検証する。
関連論文リスト
- DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - PixelFade: Privacy-preserving Person Re-identification with Noise-guided Progressive Replacement [41.05432008027312]
オンラインの人物識別サービスは、データ漏洩回復攻撃によるプライバシー侵害を検知する。
これまでのプライバシ保護者再識別手法では、回復攻撃に抵抗できず、精度を損なうことはできない。
歩行者画像を保護するための反復的(PixelFade)手法を提案する。
論文 参考訳(メタデータ) (2024-08-10T12:52:54Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - PrivacyGAN: robust generative image privacy [0.0]
画像のユーザビリティを維持しながらプライバシを保護する新しいアプローチであるPrivacyGANを導入する。
Fawkesからインスピレーションを得たこの手法では、埋め込み空間内の元の画像をデコイ画像にシフトさせる。
本手法は未知の埋め込み転送シナリオにおいても有効であることを示す。
論文 参考訳(メタデータ) (2023-10-19T08:56:09Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。