論文の概要: PrivatEyes: Appearance-based Gaze Estimation Using Federated Secure
Multi-Party Computation
- arxiv url: http://arxiv.org/abs/2402.18970v1
- Date: Thu, 29 Feb 2024 09:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 15:35:12.239188
- Title: PrivatEyes: Appearance-based Gaze Estimation Using Federated Secure
Multi-Party Computation
- Title(参考訳): PrivatEyes:Federated Secure Multi-Party Computation を用いた外観に基づく視線推定
- Authors: Mayar Elfares, Pascal Reisert, Zhiming Hu, Wenwu Tang, Ralf K\"usters,
Andreas Bulling
- Abstract要約: PrivatEyesは、フェデレートラーニング(FL)とセキュアマルチパーティ計算(MPC)に基づく外見に基づく視線推定のためのプライバシー向上手法である。
PrivatEyesは、異なるユーザにわたる複数のローカルデータセット上での視線推定器のトレーニングと、個々の推定器のアップデートをサーバベースのセキュアアグリゲーションを可能にする。
新しいデータ漏洩攻撃 DualView は、PrivatEyes が以前のアプローチよりも効果的なプライベートトレーニングデータのリークを制限することを示している。
- 参考スコア(独自算出の注目度): 10.50795947657397
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Latest gaze estimation methods require large-scale training data but their
collection and exchange pose significant privacy risks. We propose PrivatEyes -
the first privacy-enhancing training approach for appearance-based gaze
estimation based on federated learning (FL) and secure multi-party computation
(MPC). PrivatEyes enables training gaze estimators on multiple local datasets
across different users and server-based secure aggregation of the individual
estimators' updates. PrivatEyes guarantees that individual gaze data remains
private even if a majority of the aggregating servers is malicious. We also
introduce a new data leakage attack DualView that shows that PrivatEyes limits
the leakage of private training data more effectively than previous approaches.
Evaluations on the MPIIGaze, MPIIFaceGaze, GazeCapture, and NVGaze datasets
further show that the improved privacy does not lead to a lower gaze estimation
accuracy or substantially higher computational costs - both of which are on par
with its non-secure counterparts.
- Abstract(参考訳): 最新の視線推定手法は大規模なトレーニングデータを必要とするが、収集と交換は重大なプライバシーリスクをもたらす。
フェデレートラーニング(FL)とセキュアマルチパーティ計算(MPC)に基づく外見に基づく視線推定のための最初のプライバシ向上トレーニング手法であるPrivatEyesを提案する。
PrivatEyesは、異なるユーザにわたる複数のローカルデータセット上での視線推定器のトレーニングと、個々の推定器のアップデートをサーバベースのセキュアアグリゲーションを可能にする。
privateyesは、集約サーバの大多数が悪意があるとしても、個々の視線データがプライベートであることを保証する。
また,新たなデータ漏洩攻撃デュアルビューを導入し,privateyesが従来よりもプライベートトレーニングデータの漏洩を効果的に制限していることを示す。
mpiigaze, mpiifacegaze, gazecapture, nvgazeデータセットの評価では、プライバシーが改善されたことにより、視線推定精度が低下したり、計算コストが大幅に高くなったりすることはないことが示されている。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivateGaze: Preserving User Privacy in Black-box Mobile Gaze Tracking Services [32.15755914718391]
PrivateGazeは、ブラックボックスの視線追跡サービスにおいて、ユーザのプライバシを効果的に保護する最初のアプローチである。
本研究では,顔画像から難読化画像に変換するプライバシー保護者を訓練するための新しい枠組みを提案する。
難読化画像は、本人性や性別などの個人情報を、不正な分類から保護することができることを示す。
論文 参考訳(メタデータ) (2024-08-01T23:11:03Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - PRICURE: Privacy-Preserving Collaborative Inference in a Multi-Party
Setting [3.822543555265593]
本稿では,セキュアなマルチパーティ計算とディファレンシャルプライバシの補完的強みを組み合わせたシステムpricureを提案する。
PRICUREは、複数のモデルオーナー間のプライバシー保護共同予測を可能にします。
ベンチマーク医療画像分類データセットを含む4つのデータセットのニューラルネットワーク上でPRICUREを評価する。
論文 参考訳(メタデータ) (2021-02-19T05:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。