論文の概要: How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning
- arxiv url: http://arxiv.org/abs/2007.09370v1
- Date: Sat, 18 Jul 2020 09:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 05:24:36.038434
- Title: How to Democratise and Protect AI: Fair and Differentially Private
Decentralised Deep Learning
- Title(参考訳): AIの民主化と保護の方法 - 公平で個人的な深層学習
- Authors: Lingjuan Lyu, Yitong Li, Karthik Nandakumar, Jiangshan Yu, Xingjun Ma
- Abstract要約: 我々はFDPDDLと呼ばれる公平で差別的な分散型ディープラーニングフレームワークを構築している。
これにより、公正かつプライベートな方法で、より正確なローカルモデルを導出することができる。
FDPDDLは高い公正性を達成し、中央集権および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
- 参考スコア(独自算出の注目度): 43.73144358534933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper firstly considers the research problem of fairness in
collaborative deep learning, while ensuring privacy. A novel reputation system
is proposed through digital tokens and local credibility to ensure fairness, in
combination with differential privacy to guarantee privacy. In particular, we
build a fair and differentially private decentralised deep learning framework
called FDPDDL, which enables parties to derive more accurate local models in a
fair and private manner by using our developed two-stage scheme: during the
initialisation stage, artificial samples generated by Differentially Private
Generative Adversarial Network (DPGAN) are used to mutually benchmark the local
credibility of each party and generate initial tokens; during the update stage,
Differentially Private SGD (DPSGD) is used to facilitate collaborative
privacy-preserving deep learning, and local credibility and tokens of each
party are updated according to the quality and quantity of individually
released gradients. Experimental results on benchmark datasets under three
realistic settings demonstrate that FDPDDL achieves high fairness, yields
comparable accuracy to the centralised and distributed frameworks, and delivers
better accuracy than the standalone framework.
- Abstract(参考訳): 本稿ではまず,協調的深層学習における公正性の研究課題について考察する。
公正性を確保するために,デジタルトークンと局所的信頼性によって新たな評価システムを提案し,プライバシを保証するための差分プライバシーと組み合わせた。
In particular, we build a fair and differentially private decentralised deep learning framework called FDPDDL, which enables parties to derive more accurate local models in a fair and private manner by using our developed two-stage scheme: during the initialisation stage, artificial samples generated by Differentially Private Generative Adversarial Network (DPGAN) are used to mutually benchmark the local credibility of each party and generate initial tokens; during the update stage, Differentially Private SGD (DPSGD) is used to facilitate collaborative privacy-preserving deep learning, and local credibility and tokens of each party are updated according to the quality and quantity of individually released gradients.
3つの現実的な設定下でのベンチマークデータセットの実験結果から、FDPDDLは高い公正性を達成し、集中化および分散フレームワークに匹敵する精度を示し、スタンドアロンフレームワークよりも優れた精度を提供する。
関連論文リスト
- Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Locally Differentially Private Distributed Online Learning with
Guaranteed Optimality [12.797344798828922]
本稿では,分散オンライン学習における差分プライバシーと学習精度を両立させる手法を提案する。
私たちの知る限りでは、このアルゴリズムは厳密な局所的な差分プライバシーと学習精度の両方を確実にする最初のアルゴリズムです。
論文 参考訳(メタデータ) (2023-06-25T02:05:34Z) - Differentially Private Decentralized Deep Learning with Consensus
Algorithms [10.208363125551555]
協調的な分散ディープラーニングは、通信エージェント間の直接的な情報交換に依存している。
信頼できない隣人エージェントとのパラメータ共有は、ローカルデータセットに関する悪用可能な情報を漏洩させる可能性がある。
協調訓練の前後で各エージェントの局所的データセットを確保できる分別的私的分散学習を導入する。
論文 参考訳(メタデータ) (2023-06-24T07:46:00Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Differentially Private Federated Learning with Local Regularization and
Sparsification [23.15611313745278]
ユーザレベルのDP保証下でのフェデレート学習におけるモデル性能劣化の原因について検討する。
プライバシを犠牲にすることなくモデル品質を向上させるために,バウンドローカル更新正規化とローカルアップデートスパシフィケーションという2つの手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T02:48:16Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。