論文の概要: How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning
- arxiv url: http://arxiv.org/abs/2007.09370v1
- Date: Sat, 18 Jul 2020 09:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:24:36.038434
- Title: How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning
- Title(参考訳): AIの民主化と保護の方法 - 公平で個人的な深層学習
- Authors: Lingjuan Lyu, Yitong Li, Karthik Nandakumar, Jiangshan Yu, Xingjun Ma
- Abstract要約: 我々はFDPDDLと呼ばれる公平で差別的な分散型ディープラーニングフレームワークを構築している。
これにより、公正かつプライベートな方法で、より正確なローカルモデルを導出することができる。
FDPDDLは高い公正性を達成し、中央集権および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
- 参考スコア(独自算出の注目度): 43.73144358534933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper firstly considers the research problem of fairness in
collaborative deep learning, while ensuring privacy. A novel reputation system
is proposed through digital tokens and local credibility to ensure fairness, in
combination with differential privacy to guarantee privacy. In particular, we
build a fair and differentially private decentralised deep learning framework
called FDPDDL, which enables parties to derive more accurate local models in a
fair and private manner by using our developed two-stage scheme: during the
initialisation stage, artificial samples generated by Differentially Private
Generative Adversarial Network (DPGAN) are used to mutually benchmark the local
credibility of each party and generate initial tokens; during the update stage,
Differentially Private SGD (DPSGD) is used to facilitate collaborative
privacy-preserving deep learning, and local credibility and tokens of each
party are updated according to the quality and quantity of individually
released gradients. Experimental results on benchmark datasets under three
realistic settings demonstrate that FDPDDL achieves high fairness, yields
comparable accuracy to the centralised and distributed frameworks, and delivers
better accuracy than the standalone framework.
- Abstract(参考訳): 本稿ではまず,協調的深層学習における公正性の研究課題について考察する。
公正性を確保するために,デジタルトークンと局所的信頼性によって新たな評価システムを提案し,プライバシを保証するための差分プライバシーと組み合わせた。
In particular, we build a fair and differentially private decentralised deep learning framework called FDPDDL, which enables parties to derive more accurate local models in a fair and private manner by using our developed two-stage scheme: during the initialisation stage, artificial samples generated by Differentially Private Generative Adversarial Network (DPGAN) are used to mutually benchmark the local credibility of each party and generate initial tokens; during the update stage, Differentially Private SGD (DPSGD) is used to facilitate collaborative privacy-preserving deep learning, and local credibility and tokens of each party are updated according to the quality and quantity of individually released gradients.
3つの現実的な設定下でのベンチマークデータセットの実験結果から、FDPDDLは高い公正性を達成し、集中化および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Locally Differentially Private Distributed Online Learning with Guaranteed Optimality [1.800614371653704]
本稿では,分散オンライン学習における差分プライバシーと学習精度を両立させる手法を提案する。
予想される即時後悔の減少を確実にする一方で、このアプローチは有限累積プライバシー予算を同時に確保することができる。
私たちの知る限りでは、このアルゴリズムは厳密な局所的な差分プライバシーと学習精度の両方を確実にする最初のアルゴリズムです。
論文 参考訳(メタデータ) (2023-06-25T02:05:34Z) - Generalizing Differentially Private Decentralized Deep Learning with Multi-Agent Consensus [11.414398732656839]
本稿では,分散ディープラーニングに差分プライバシーを組み込んだフレームワークを提案する。
本稿では,このフレームワークから派生したアルゴリズムの収束保証を証明し,その実用性を示す。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Differentially Private Federated Learning with Local Regularization and
Sparsification [23.15611313745278]
ユーザレベルのDP保証下でのフェデレート学習におけるモデル性能劣化の原因について検討する。
プライバシを犠牲にすることなくモデル品質を向上させるために,バウンドローカル更新正規化とローカルアップデートスパシフィケーションという2つの手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T02:48:16Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。