論文の概要: DivTrackee versus DynTracker: Promoting Diversity in Anti-Facial Recognition against Dynamic FR Strategy
- arxiv url: http://arxiv.org/abs/2501.06533v1
- Date: Sat, 11 Jan 2025 12:44:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:25.276628
- Title: DivTrackee versus DynTracker: Promoting Diversity in Anti-Facial Recognition against Dynamic FR Strategy
- Title(参考訳): DivTrackee vs DynTracker:動的FR戦略に対する反ファシアル認識における多様性の促進
- Authors: Wenshu Fan, Minxing Zhang, Hongwei Li, Wenbo Jiang, Hanxiao Chen, Xiangyu Yue, Michael Backes, Xiao Zhang,
- Abstract要約: 我々は、静的な対面認識戦略は、決定されたトラッカーの能力を忠実に特徴づけることはできないと論じる。
我々は、DynTrackerによるプライバシー上の脅威を軽減するために、AFRで保護された画像の多様性を明示的に促進することを提唱する。
具体的には,多様なAFR保護工法であるemphDivTrackeeを開発した。
- 参考スコア(独自算出の注目度): 30.550667924708765
- License:
- Abstract: The widespread adoption of facial recognition (FR) models raises serious concerns about their potential misuse, motivating the development of anti-facial recognition (AFR) to protect user facial privacy. In this paper, we argue that the static FR strategy, predominantly adopted in prior literature for evaluating AFR efficacy, cannot faithfully characterize the actual capabilities of determined trackers who aim to track a specific target identity. In particular, we introduce \emph{\ourAttack}, a dynamic FR strategy where the model's gallery database is iteratively updated with newly recognized target identity images. Surprisingly, such a simple approach renders all the existing AFR protections ineffective. To mitigate the privacy threats posed by DynTracker, we advocate for explicitly promoting diversity in the AFR-protected images. We hypothesize that the lack of diversity is the primary cause of the failure of existing AFR methods. Specifically, we develop \emph{DivTrackee}, a novel method for crafting diverse AFR protections that builds upon a text-guided image generation framework and diversity-promoting adversarial losses. Through comprehensive experiments on various facial image benchmarks and feature extractors, we demonstrate DynTracker's strength in breaking existing AFR methods and the superiority of DivTrackee in preventing user facial images from being identified by dynamic FR strategies. We believe our work can act as an important initial step towards developing more effective AFR methods for protecting user facial privacy against determined trackers.
- Abstract(参考訳): 顔認識(FR)モデルの普及は、その潜在的な誤用に対する深刻な懸念を提起し、ユーザーの顔のプライバシーを保護するために、対顔認識(AFR)の開発を動機付けている。
本稿では,AFRの有効性を評価するために先行文献で主に採用されている静的FR戦略が,特定対象の個人性を追跡する決定的トラッカーの実際の能力を忠実に特徴づけることができないことを論じる。
特に,モデルのギャラリーデータベースを更新する動的FR戦略である \emph{\ourAttack {\displaystyle \emph{\ourAttack} を紹介する。
驚くべきことに、このような単純なアプローチは既存のAFR保護を無効にします。
我々は、DynTrackerによるプライバシー上の脅威を軽減するために、AFRで保護された画像の多様性を明示的に促進することを提唱する。
多様性の欠如が既存のAFR手法の失敗の主な原因であると仮定する。
具体的には,テキスト誘導画像生成フレームワーク上に構築された多様なAFR保護を実現するための新しい手法である \emph{DivTrackee} を開発した。
様々な顔画像ベンチマークと特徴抽出器に関する総合的な実験を通じて、既存のAFR手法を破るDynTrackerの強みと、動的FR戦略によってユーザ顔画像が識別されるのを防ぐDivTrackeeの優位性を実証した。
当社の作業は、決定されたトラッカーに対してユーザの顔のプライバシを保護するために、より効果的なAFRメソッドを開発するための重要な初期ステップとして機能すると考えています。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Transferable Adversarial Facial Images for Privacy Protection [15.211743719312613]
視覚的品質を維持しつつ、転送性を改善した新しい顔プライバシー保護方式を提案する。
生成モデルの潜在空間をトラバースするために,まずグローバルな逆潜時探索を利用する。
次に、視覚的アイデンティティ情報を保存するための重要なランドマーク正規化モジュールを導入する。
論文 参考訳(メタデータ) (2024-07-18T02:16:11Z) - A visualization method for data domain changes in CNN networks and the optimization method for selecting thresholds in classification tasks [1.1118946307353794]
Face Anti-Spoofing (FAS) は、顔認識技術のセキュリティを維持する上で重要な役割を担っている。
偽造顔生成技術の台頭に伴い、デジタル編集された顔が反偽造に直面する課題がエスカレートしている。
本稿では,データセット上での予測結果を可視化することにより,モデルのトレーニング結果を直感的に反映する可視化手法を提案する。
論文 参考訳(メタデータ) (2024-04-19T03:12:17Z) - NeRFTAP: Enhancing Transferability of Adversarial Patches on Face
Recognition using Neural Radiance Fields [15.823538329365348]
本稿では、FRモデルへの転送可能性と被害者の顔画像の両方を考慮し、新たな敵攻撃法を提案する。
我々は,敵パッチの転送可能性を高めるために,ソースと対象対象のための新しいビューフェイス画像を生成する。
本研究は, FRシステムの強靭性向上に有用な知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T03:17:14Z) - Shielding the Unseen: Privacy Protection through Poisoning NeRF with
Spatial Deformation [59.302770084115814]
本稿では,Neural Radiance Fields(NeRF)モデルの生成機能に対して,ユーザのプライバシを保護する革新的な手法を提案する。
我々の新しい中毒攻撃法は、人間の目では認識できないが、NeRFが正確に3Dシーンを再構築する能力を損なうのに十分強力である観察ビューの変化を誘発する。
我々は、高品質の画像を含む29の現実世界シーンからなる2つの共通のNeRFベンチマークデータセットに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-10-04T19:35:56Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Towards Assessing and Characterizing the Semantic Robustness of Face
Recognition [55.258476405537344]
ディープニューラルネットワーク(DNN)に基づく顔認識モデル(FRM)がこの脆弱性を継承する。
本研究では,入力に対する意味摂動に対するFRMの頑健性を評価し,評価する手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T12:22:09Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。