論文の概要: Adaptive Hybrid Masking Strategy for Privacy-Preserving Face Recognition Against Model Inversion Attack
- arxiv url: http://arxiv.org/abs/2403.10558v2
- Date: Tue, 23 Apr 2024 09:59:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 18:56:32.477592
- Title: Adaptive Hybrid Masking Strategy for Privacy-Preserving Face Recognition Against Model Inversion Attack
- Title(参考訳): モデル反転攻撃に対するプライバシ保護顔認識のための適応ハイブリッドマスキング戦略
- Authors: Yinggui Wang, Yuanqing Huang, Jianshu Li, Le Yang, Kai Song, Lei Wang,
- Abstract要約: 本稿では,モデル反転攻撃(MIA)に対する適応型ハイブリッドマスキングアルゴリズムを提案する。
具体的には、適応型MixUp戦略を用いて、周波数領域に顔画像が隠蔽される。
提案手法は,MIAに対するプライバシ保護と認識精度において,既存の防御アルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 7.82336679905826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The utilization of personal sensitive data in training face recognition (FR) models poses significant privacy concerns, as adversaries can employ model inversion attacks (MIA) to infer the original training data. Existing defense methods, such as data augmentation and differential privacy, have been employed to mitigate this issue. However, these methods often fail to strike an optimal balance between privacy and accuracy. To address this limitation, this paper introduces an adaptive hybrid masking algorithm against MIA. Specifically, face images are masked in the frequency domain using an adaptive MixUp strategy. Unlike the traditional MixUp algorithm, which is predominantly used for data augmentation, our modified approach incorporates frequency domain mixing. Previous studies have shown that increasing the number of images mixed in MixUp can enhance privacy preservation but at the expense of reduced face recognition accuracy. To overcome this trade-off, we develop an enhanced adaptive MixUp strategy based on reinforcement learning, which enables us to mix a larger number of images while maintaining satisfactory recognition accuracy. To optimize privacy protection, we propose maximizing the reward function (i.e., the loss function of the FR system) during the training of the strategy network. While the loss function of the FR network is minimized in the phase of training the FR network. The strategy network and the face recognition network can be viewed as antagonistic entities in the training process, ultimately reaching a more balanced trade-off. Experimental results demonstrate that our proposed hybrid masking scheme outperforms existing defense algorithms in terms of privacy preservation and recognition accuracy against MIA.
- Abstract(参考訳): 訓練顔認証(FR)モデルにおける個人機密データの利用は、敵が元のトレーニングデータを推測するためにモデル反転攻撃(MIA)を適用できるため、重要なプライバシー上の懸念を生じさせる。
データ強化や差分プライバシーといった既存の防衛手法が、この問題を軽減するために使われてきた。
しかし、これらの手法は、プライバシーと精度の最適なバランスをとらないことが多い。
この制限に対処するために,MIAに対する適応型ハイブリッドマスキングアルゴリズムを提案する。
具体的には、適応型MixUp戦略を用いて、周波数領域に顔画像が隠蔽される。
データ拡張に主に使用される従来のMixUpアルゴリズムとは異なり、我々の修正されたアプローチは周波数領域の混合を取り入れている。
これまでの研究では、MixUpに混在する画像の数を増やすことでプライバシー保護が向上するが、顔認識精度の低下を犠牲にしている。
このトレードオフを克服するために、強化学習に基づく適応型MixUp戦略を開発し、良好な認識精度を維持しつつ、多数の画像の混合を可能にする。
プライバシ保護を最適化するために、戦略ネットワークのトレーニング中に報酬関数(FRシステムの損失関数)を最大化することを提案する。
FRネットワークの損失関数は、FRネットワークをトレーニングする段階で最小化される。
戦略ネットワークと顔認識ネットワークは、トレーニングプロセスにおいて敵対的な存在と見なすことができ、最終的にはよりバランスの取れたトレードオフに達する。
提案手法は,MIAに対するプライバシ保護と認識精度において,既存の防御アルゴリズムよりも優れていた。
関連論文リスト
- A visualization method for data domain changes in CNN networks and the optimization method for selecting thresholds in classification tasks [1.1118946307353794]
Face Anti-Spoofing (FAS) は、顔認識技術のセキュリティを維持する上で重要な役割を担っている。
偽造顔生成技術の台頭に伴い、デジタル編集された顔が反偽造に直面する課題がエスカレートしている。
本稿では,データセット上での予測結果を可視化することにより,モデルのトレーニング結果を直感的に反映する可視化手法を提案する。
論文 参考訳(メタデータ) (2024-04-19T03:12:17Z) - Salience-Based Adaptive Masking: Revisiting Token Dynamics for Enhanced Pre-training [33.39585710223628]
適応型マスキングはトークンサリエンスを優先することでMIMアプローチの事前学習性能を向上させる。
本研究では,ImageNet-1Kデータセット上でのマスクによる事前学習において,最先端の手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-04-12T08:38:51Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Private, Efficient, and Accurate: Protecting Models Trained by
Multi-party Learning with Differential Privacy [8.8480262507008]
セキュアなDPSGDプロトコルと2つの最適化手法からなるPEA(Private, Efficient, Accurate)を提案する。
TF-Encrypted と Queqiao の2つのオープンソース MPL フレームワークで PEA を実装しています。
PEAはLAN設定下7分以内でCIFAR-10の精度88%の差分プライベート分類モデルを訓練できることを示した。
論文 参考訳(メタデータ) (2022-08-18T06:48:25Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - Practical and Secure Federated Recommendation with Personalized Masks [24.565751694946062]
フェデレートレコメンデーションは、プライベート分散レコメンデーションシステムの新たな概念である。
現在のレコメンデータシステムは、主に同型暗号化と差分プライバシー方式を利用している。
本稿では,新しいフェデレーション・リコメンデーション・フレームワークであるフェデレーション・マスク・マトリックス・ファクタライゼーションを提案する。
論文 参考訳(メタデータ) (2021-08-18T07:12:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。