論文の概要: FIVA: Facial Image and Video Anonymization and Anonymization Defense
- arxiv url: http://arxiv.org/abs/2309.04228v1
- Date: Fri, 8 Sep 2023 09:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 13:42:37.962418
- Title: FIVA: Facial Image and Video Anonymization and Anonymization Defense
- Title(参考訳): FIVA: 顔とビデオの匿名化と匿名化防衛
- Authors: Felix Rosberg, Eren Erdal Aksoy, Cristofer Englund, Fernando
Alonso-Fernandez
- Abstract要約: 画像やビデオにおける顔の匿名化のための新しいアプローチをFIVAと略して提案する。
提案手法は,同一の顔の匿名化をフレーム上で一定に維持できる。
FIVA は偽の受け入れ率 0.001 に対して 0 true の正を許す。
- 参考スコア(独自算出の注目度): 47.941023805223786
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present a new approach for facial anonymization in images
and videos, abbreviated as FIVA. Our proposed method is able to maintain the
same face anonymization consistently over frames with our suggested
identity-tracking and guarantees a strong difference from the original face.
FIVA allows for 0 true positives for a false acceptance rate of 0.001. Our work
considers the important security issue of reconstruction attacks and
investigates adversarial noise, uniform noise, and parameter noise to disrupt
reconstruction attacks. In this regard, we apply different defense and
protection methods against these privacy threats to demonstrate the scalability
of FIVA. On top of this, we also show that reconstruction attack models can be
used for detection of deep fakes. Last but not least, we provide experimental
results showing how FIVA can even enable face swapping, which is purely trained
on a single target image.
- Abstract(参考訳): 本稿では,fivaと略される画像と動画における顔匿名化のための新しいアプローチを提案する。
提案手法は,同一の顔の匿名化をフレーム上で一貫して維持し,元の顔との強い差異を保証できる。
FIVA は偽の受け入れ率 0.001 に対して 0 true の正を許す。
本研究は,レコンストラクション攻撃の重要なセキュリティ課題を考察し,レコンストラクション攻撃を妨害する敵騒音,一様雑音,パラメータノイズについて検討する。
本稿では,FIVAのスケーラビリティを実証するために,これらプライバシの脅威に対して異なる防御・保護手法を適用する。
さらに, 再現攻撃モデルを用いて, ディープフェイクの検出が可能であることも確認した。
最後に、FIVAが顔のスワップまで可能であり、単一のターゲット画像上で純粋に訓練されていることを示す実験結果を示す。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Vulnerability of Face Recognition Systems Against Composite Face
Reconstruction Attack [3.3707422585608953]
ラウンド信頼スコアは自明であるが、勾配降下画像再構成攻撃を阻止するためのシンプルで効果的な対策であると考えられる。
本稿では, 複合顔を用いた顔復元攻撃が, 丸め政策の非効率性を明らかにすることを実証する。
論文 参考訳(メタデータ) (2020-08-23T03:37:51Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。