論文の概要: A Privacy-Preserving and Trustable Multi-agent Learning Framework
- arxiv url: http://arxiv.org/abs/2106.01242v1
- Date: Wed, 2 Jun 2021 15:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:41:28.122753
- Title: A Privacy-Preserving and Trustable Multi-agent Learning Framework
- Title(参考訳): プライバシー保護と信頼性のあるマルチエージェント学習フレームワーク
- Authors: Anudit Nagar, Cuong Tran, Ferdinando Fioretto
- Abstract要約: 本稿では,プライバシ保護と信頼性のある分散学習(PT-DL)を提案する。
PT-DLは、エージェントのデータに対する強力なプライバシ保護を保証するために、差分プライバシに依存する、完全に分散化されたフレームワークである。
本論文は,PT-DLが50%の衝突攻撃に対して,悪意のある信頼モデルで高い確率で回復可能であることを示す。
- 参考スコア(独自算出の注目度): 34.28936739262812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed multi-agent learning enables agents to cooperatively train a
model without requiring to share their datasets. While this setting ensures
some level of privacy, it has been shown that, even when data is not directly
shared, the training process is vulnerable to privacy attacks including data
reconstruction and model inversion attacks. Additionally, malicious agents that
train on inverted labels or random data, may arbitrarily weaken the accuracy of
the global model. This paper addresses these challenges and presents
Privacy-preserving and trustable Distributed Learning (PT-DL), a fully
decentralized framework that relies on Differential Privacy to guarantee strong
privacy protections of the agents' data, and Ethereum smart contracts to ensure
trustability. The paper shows that PT-DL is resilient up to a 50% collusion
attack, with high probability, in a malicious trust model and the experimental
evaluation illustrates the benefits of the proposed model as a
privacy-preserving and trustable distributed multi-agent learning system on
several classification tasks.
- Abstract(参考訳): 分散マルチエージェント学習により、エージェントはデータセットを共有することなく、モデルを協調的にトレーニングできる。
この設定によってある程度のプライバシーが保証されるが、データが直接共有されていない場合でも、トレーニングプロセスはデータ再構成やモデル反転攻撃といったプライバシー攻撃に弱いことが示されている。
さらに、逆ラベルやランダムなデータをトレーニングする悪意のあるエージェントは、グローバルモデルの精度を任意に弱める可能性がある。
本稿では,これらの課題に対処し,エージェントデータの強力なプライバシ保護を保証するために差分プライバシに依存する分散学習(PT-DL)と,信頼性を保証するEthereumスマートコントラクトを提案する。
本論文は,PT-DLが悪意のある信頼モデルにおいて50%の衝突攻撃に対して高い確率で回復可能であることを示し,その実験により,複数の分類タスクにおいて,プライバシ保護および信頼性の高い分散マルチエージェント学習システムとして提案されたモデルの利点が示された。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Advancing Personalized Federated Learning: Group Privacy, Fairness, and
Beyond [6.731000738818571]
Federated Learning(FL)は、機械学習モデルを分散的かつ協調的にトレーニングするためのフレームワークである。
本稿では、FLフレームワーク内で訓練されたモデルによって達成されたパーソナライズ、プライバシ保証、公平性の3つの相互作用について述べる。
グループプライバシ保証を$d$-privacyを利用して導入する手法が提案されている。
論文 参考訳(メタデータ) (2023-09-01T12:20:19Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Protecting Data from all Parties: Combining FHE and DP in Federated
Learning [0.09176056742068812]
トレーニングデータのプライバシに関して,拡張脅威モデルに対処するセキュアなフレームワークを提案する。
提案フレームワークは,トレーニングデータ所有者と集約サーバのすべての参加者から,トレーニングデータのプライバシを保護する。
新たな量子化演算子を用いて、同型暗号化を用いることにより、ノイズが定量化され、バウンドされる状況において、差分プライバシー保証が証明される。
論文 参考訳(メタデータ) (2022-05-09T14:33:44Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Cooperative Multi-Agent Actor-Critic for Privacy-Preserving Load
Scheduling in a Residential Microgrid [71.17179010567123]
本稿では,分散型アクターを分散批評家に教育する,プライバシ保護型マルチエージェントアクター批判フレームワークを提案する。
提案手法は,家庭のプライバシを保護しつつ,暗黙的にマルチエージェントの信用代入メカニズムを学習する。
論文 参考訳(メタデータ) (2021-10-06T14:05:26Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。