論文の概要: Proof-of-Data: A Consensus Protocol for Collaborative Intelligence
- arxiv url: http://arxiv.org/abs/2501.02971v1
- Date: Mon, 06 Jan 2025 12:27:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:07:52.102666
- Title: Proof-of-Data: A Consensus Protocol for Collaborative Intelligence
- Title(参考訳): Proof-of-Data:コラボレーティブインテリジェンスのための合意プロトコル
- Authors: Huiwen Liu, Feida Zhu, Ling Cheng,
- Abstract要約: 本稿では,新しいProof-of-Data(PoD)コンセンサスプロトコルに基づくブロックチェーンベースのByzantineフォールトトレラントなフェデレーション学習フレームワークを提案する。
PoDは、社会規模のPoWスタイルの学習から学習効率とシステムの活力の恩恵を受けることができる。
ビザンチン攻撃によるデータ偽造による偽報酬請求を軽減するために、プライバシ対応のデータ検証とコントリビューションベースの報酬配分機構がフレームワークの完成のために設計されている。
- 参考スコア(独自算出の注目度): 6.107950942979923
- License:
- Abstract: Existing research on federated learning has been focused on the setting where learning is coordinated by a centralized entity. Yet the greatest potential of future collaborative intelligence would be unleashed in a more open and democratized setting with no central entity in a dominant role, referred to as "decentralized federated learning". New challenges arise accordingly in achieving both correct model training and fair reward allocation with collective effort among all participating nodes, especially with the threat of the Byzantine node jeopardising both tasks. In this paper, we propose a blockchain-based decentralized Byzantine fault-tolerant federated learning framework based on a novel Proof-of-Data (PoD) consensus protocol to resolve both the "trust" and "incentive" components. By decoupling model training and contribution accounting, PoD is able to enjoy not only the benefit of learning efficiency and system liveliness from asynchronous societal-scale PoW-style learning but also the finality of consensus and reward allocation from epoch-based BFT-style voting. To mitigate false reward claims by data forgery from Byzantine attacks, a privacy-aware data verification and contribution-based reward allocation mechanism is designed to complete the framework. Our evaluation results show that PoD demonstrates performance in model training close to that of the centralized counterpart while achieving trust in consensus and fairness for reward allocation with a fault tolerance ratio of 1/3.
- Abstract(参考訳): 既存のフェデレートラーニングの研究は、集中型エンティティによって学習がコーディネートされる環境に焦点を当てている。
しかし、将来の協力的知能の最大の可能性は、「分散化された連邦学習」と呼ばれる支配的な役割において中心的な存在を持たない、よりオープンで民主化された状況で解き放たれるであろう。
そのため、正しいモデルトレーニングと公平な報酬配分を達成するために、すべての参加ノード、特にビザンティンノードが両方のタスクを危険にさらすことによって、新たな課題が生じる。
本稿では,ブロックチェーンを基盤とした非分散化ビザンチンフォールトトレラントなフェデレート学習フレームワークを提案し,その"信頼"と"インセンティブ"の両方を解決するための新しいProof-of-Data(PoD)コンセンサスプロトコルを提案する。
モデルトレーニングとコントリビューション会計を分離することにより、PoDは、非同期な社会的スケールのPoWスタイルの学習から学習効率とシステムの活力の恩恵を受けるだけでなく、エポックベースのBFTスタイルの投票によるコンセンサスと報酬の配分の確定性も享受できる。
ビザンチン攻撃によるデータ偽造による偽報酬請求を軽減するために、プライバシ対応のデータ検証とコントリビューションベースの報酬配分機構がフレームワークの完成のために設計されている。
評価の結果,PoDは中央集権モデルに近いモデルトレーニングにおいて,コンセンサスとフェアネスの信頼度を3分の1の耐障害性比で達成しつつ,その性能を示すことがわかった。
関連論文リスト
- Proof-of-Collaborative-Learning: A Multi-winner Federated Learning Consensus Algorithm [2.5203968759841158]
協調学習(PoCL, Proof-of-Collaborative-Learning)は,多自由度学習による協調学習によるコンセンサス機構である。
PoCLはブロックチェーンのパワーをリダイレクトして、フェデレートされた学習モデルをトレーニングする。
鉱夫の局所訓練モデルの効率性を確保するための新しい評価機構を提案する。
論文 参考訳(メタデータ) (2024-07-17T21:14:05Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Federated Selective Aggregation for Knowledge Amalgamation [66.94340185846686]
FedSAの目標は、何人かの分散教師の助けを借りて、新しいタスクのための学生モデルをトレーニングすることである。
このような問題を調査する動機は、最近のモデル共有のジレンマに端を発する。
提案されたFedSAは、このジレンマに対する解決策を提供し、さらに一歩進める。
論文 参考訳(メタデータ) (2022-07-27T05:36:50Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Blockchain-based Trustworthy Federated Learning Architecture [16.062545221270337]
ブロックチェーンベースの信頼できるフェデレーション学習アーキテクチャを提案する。
まず、説明責任を実現するために、スマートコントラクトベースのデータモデル証明レジストリを設計する。
また、トレーニングデータの公平性を高めるために、重み付き公正データサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T06:13:58Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - 2CP: Decentralized Protocols to Transparently Evaluate Contributivity in
Blockchain Federated Learning Environments [9.885896204530878]
フェデレートラーニングのための2つの新しいプロトコルからなるフレームワークである2CPを紹介する。
Crowdsource Protocolでは、アクターがトレーニングのためにモデルを前進させ、自身のデータを使用して、それに対するコントリビューションを評価することができる。
Consortium Protocolは、初期モデルを所有しておらず、データセットが利用できない場合でも、トレーナーに同じ保証を与える。
論文 参考訳(メタデータ) (2020-11-15T12:59:56Z) - BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning [2.0625936401496237]
BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能なフェデレーション学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
論文 参考訳(メタデータ) (2020-07-08T02:24:26Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。