論文の概要: Enhancing Generalization of Invisible Facial Privacy Cloak via Gradient
Accumulation
- arxiv url: http://arxiv.org/abs/2401.01575v1
- Date: Wed, 3 Jan 2024 07:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:13:10.980068
- Title: Enhancing Generalization of Invisible Facial Privacy Cloak via Gradient
Accumulation
- Title(参考訳): 勾配蓄積による顔の見えないプライバシークロークの一般化
- Authors: Xuannan Liu and Yaoyao Zhong and Weihong Deng and Hongzhi Shi and
Xingchen Cui and Yunfeng Yin and Dongchao Wen
- Abstract要約: 通常のユーザのすべてのイメージに対して,新たなタイプの対向的プライバシクローク(クラスユニバーサル)を適用することができる。
本稿では,複数の小バッチ勾配を1段階の反復勾配に集約し,勾配安定性を高め,量子化演算を減少させるグラディエント累積法を提案する。
実験の結果,提案手法はブラックボックスの顔認識モデルに対して,プライバシ・コモンズ・データセット上で高い性能を示すことがわかった。
- 参考スコア(独自算出の注目度): 46.81652932809355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The blooming of social media and face recognition (FR) systems has increased
people's concern about privacy and security. A new type of adversarial privacy
cloak (class-universal) can be applied to all the images of regular users, to
prevent malicious FR systems from acquiring their identity information. In this
work, we discover the optimization dilemma in the existing methods -- the local
optima problem in large-batch optimization and the gradient information
elimination problem in small-batch optimization. To solve these problems, we
propose Gradient Accumulation (GA) to aggregate multiple small-batch gradients
into a one-step iterative gradient to enhance the gradient stability and reduce
the usage of quantization operations. Experiments show that our proposed method
achieves high performance on the Privacy-Commons dataset against black-box face
recognition models.
- Abstract(参考訳): ソーシャルメディアと顔認識(FR)システムの普及は、プライバシーとセキュリティに対する人々の関心を高めている。
悪意のあるFRシステムが識別情報を取得するのを防ぐために、新しいタイプの対人プライバシークローク(クラスユニバーサル)を通常のユーザのすべての画像に適用することができる。
本研究では,大バッチ最適化における局所オプティマ問題と小バッチ最適化における勾配情報除去問題と,既存の手法における最適化ジレンマを発見する。
これらの問題を解決するために,複数の小バッチ勾配を1段階の反復勾配に集約し,勾配安定性を高め,量子化演算を減少させるグラディエント累積法を提案する。
提案手法は,ブラックボックス顔認識モデルに対して,プライバシ・コモンズデータセット上で高い性能を実現することを示す。
関連論文リスト
- RDP: Ranked Differential Privacy for Facial Feature Protection in Multiscale Sparsified Subspace [1.6163129903911515]
顔認識システムは、ユーザーの顔画像にアクセスし、それを顔認識システムに侵入できる潜在的な敵に侵入されるという真の脅威に直面している。
本稿では,Ranked Differential Privacy (RDP) と名づけられた顔の特徴を保護するため,マルチスケールの特徴空間における新たなプライバシ保護手法を提案する。
非線形LM問題を解くための2つの手法を提案し, 最適な雑音スケールパラメータを求める。
論文 参考訳(メタデータ) (2024-08-01T05:41:59Z) - Approximating Two-Layer ReLU Networks for Hidden State Analysis in Differential Privacy [3.8254443661593633]
DP-SGDで訓練した1つの隠蔽層ReLUネットワークに匹敵する,プライバシユーティリティトレードオフによる凸問題をプライベートにトレーニングすることが可能である。
ベンチマーク分類タスクの実験により、NoisyCGDは1層ReLUネットワークに適用されたDP-SGDに匹敵するプライバシー利用トレードオフを達成できることが示された。
論文 参考訳(メタデータ) (2024-07-05T22:43:32Z) - Sparsity-Preserving Differentially Private Training of Large Embedding
Models [67.29926605156788]
DP-SGDは、差分プライバシーと勾配降下を組み合わせたトレーニングアルゴリズムである。
DP-SGDをネーティブに埋め込みモデルに適用すると、勾配の間隔が破壊され、トレーニング効率が低下する。
我々は,大規模埋め込みモデルのプライベートトレーニングにおいて,勾配間隔を保ったDP-FESTとDP-AdaFESTの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:59:51Z) - DP-SGD with weight clipping [1.0878040851638]
従来の勾配クリッピングから生じるバイアスを緩和する新しい手法を提案する。
探索領域内における現在のモデルのリプシッツ値の公開上界と現在の位置を有効利用することにより、改良されたノイズレベル調整を実現することができる。
論文 参考訳(メタデータ) (2023-10-27T09:17:15Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Auditing Privacy Defenses in Federated Learning via Generative Gradient
Leakage [9.83989883339971]
Federated Learning (FL)フレームワークは、分散学習システムにプライバシーの利点をもたらす。
近年の研究では、共有情報を通じて個人情報を漏洩させることが報告されている。
我々は,GGL(Generative Gradient Leakage)と呼ばれる新しいタイプのリーク手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:59:59Z) - Federated Learning for Face Recognition with Gradient Correction [52.896286647898386]
本稿では,顔認識のためのフェデレーション学習に取り組むためのフレームワークであるFedGCを紹介する。
我々は,FedGCが標準ソフトマックスと同様の損失関数を構成することを示す。
論文 参考訳(メタデータ) (2021-12-14T09:19:29Z) - Local Differential Privacy for Bayesian Optimization [12.05395706770007]
局所微分プライバシー(LDP)を保証した非パラメトリックガウス過程におけるブラックボックス最適化について検討する。
具体的には、各ユーザの報酬は、プライバシーを保護するためにさらに悪化し、学習者は、後悔を最小限に抑えるために、破損した報酬にのみアクセスすることができる。
GP-UCBフレームワークとLaplace DP機構に基づく3つのほぼ最適なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-13T21:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。