論文の概要: Fant\^omas: Evaluating Reversibility of Face Anonymizations Using a
General Deep Learning Attacker
- arxiv url: http://arxiv.org/abs/2210.10651v1
- Date: Wed, 19 Oct 2022 15:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:38:54.122250
- Title: Fant\^omas: Evaluating Reversibility of Face Anonymizations Using a
General Deep Learning Attacker
- Title(参考訳): Fant\^omas:一般ディープラーニングアタッカーを用いた顔匿名化の可逆性の評価
- Authors: Julian Todt, Simon Hanisch, Thorsten Strufe
- Abstract要約: 生体データ(Biometric data)は、個人を特定し、個人に関する情報を推測するのに使用できる豊富な情報源である。
匿名化技術は、データの有効性を保ちながら、センシティブな情報を難読化するために、クリアなデータへの変換を用いる。
14点中10点の顔の匿名化技術は少なくとも部分的には可逆的であり、そのうち6点は非常に可逆的である。
- 参考スコア(独自算出の注目度): 6.886054809041191
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Biometric data is a rich source of information that can be used to identify
individuals and infer private information about them. To mitigate this privacy
risk, anonymization techniques employ transformations on clear data to
obfuscate sensitive information, all while retaining some utility of the data.
Albeit published with impressive claims, they sometimes are not evaluated with
convincing methodology. We hence are interested to which extent recently
suggested anonymization techniques for obfuscating facial images are effective.
More specifically, we test how easily they can be automatically reverted, to
estimate the privacy they can provide. Our approach is agnostic to the
anonymization technique as we learn a machine learning model on the clear and
corresponding anonymized data. We find that 10 out of 14 tested face
anonymization techniques are at least partially reversible, and six of them are
at least highly reversible.
- Abstract(参考訳): バイオメトリックデータは、個人を識別し、それらの個人情報を推測するために使用できる豊富な情報ソースである。
このプライバシーリスクを軽減するため、匿名化技術では、機密情報を隠蔽するためにクリアデータへの変換を採用しています。
印象的な主張で出版されているが、説得力のある方法論で評価されないこともある。
そこで, 難読化顔画像の匿名化技術がどの程度有効かに興味が持たれている。
より具体的には、それらが自動的に逆戻りできるかをテストして、提供可能なプライバシを見積もっています。
我々のアプローチは匿名化手法とは無関係であり、明快で対応する匿名化データに基づいて機械学習モデルを学ぶ。
14点中10点の顔の匿名化技術は少なくとも部分的には可逆的であり、そのうち6点は非常に可逆的である。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Facial Identity Anonymization via Intrinsic and Extrinsic Attention Distraction [12.12653214552672]
本研究は,本質的および外生的アイデンティティの注意をそらすことによって,新たな顔の匿名化手法を提案する。
当社のアプローチでは,顔の外観や形状を柔軟かつ直感的に操作することで,多様な結果が得られる。
ユーザに対して、パーソナライズされた匿名化の実行を指示するためにも使用できる。
論文 参考訳(メタデータ) (2024-06-25T02:07:55Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Privacy-Preserving Face Recognition Using Trainable Feature Subtraction [40.47645421424354]
顔認識はプライバシーの懸念を増している。
本稿では,視覚障害と回復障害に対する顔画像保護について検討する。
我々は,この手法を新たなプライバシ保護顔認識手法であるMinusFaceに精錬する。
論文 参考訳(メタデータ) (2024-03-19T05:27:52Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - GANonymization: A GAN-based Face Anonymization Framework for Preserving
Emotional Expressions [43.017036538109274]
GANonymizationは、表情保存能力を持つ新しい顔匿名化フレームワークである。
提案手法は, 顔の高レベル表現をベースとして, GAN(Generative Adversarial Network)に基づく匿名化バージョンに合成する。
論文 参考訳(メタデータ) (2023-05-03T14:22:48Z) - Learnable Privacy-Preserving Anonymization for Pedestrian Images [27.178354411900127]
本稿では,歩行者画像における新たなプライバシー保護匿名化問題について検討する。
認証されたモデルに対する個人識別情報(PII)を保存し、PIIが第三者によって認識されないようにする。
本稿では,全体匿名画像の可逆的生成が可能な共同学習可逆匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-24T07:04:16Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Face Anonymization by Manipulating Decoupled Identity Representation [5.26916168336451]
本稿では,顔画像の識別情報をわずかな修正で漏洩から保護する手法を提案する。
具体的には、生成的敵ネットワークの力を利用する他の顔属性と同一性表現を分離する。
モデルの不整合性を回避し、匿名性生成(AIG)を効果的に行う手法を提案する。
論文 参考訳(メタデータ) (2021-05-24T07:39:54Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。