論文の概要: 2CP: Decentralized Protocols to Transparently Evaluate Contributivity in
Blockchain Federated Learning Environments
- arxiv url: http://arxiv.org/abs/2011.07516v1
- Date: Sun, 15 Nov 2020 12:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 07:39:18.656340
- Title: 2CP: Decentralized Protocols to Transparently Evaluate Contributivity in
Blockchain Federated Learning Environments
- Title(参考訳): 2CP:ブロックチェーン統合学習環境における貢献度を透過的に評価する分散プロトコル
- Authors: Harry Cai and Daniel Rueckert and Jonathan Passerat-Palmbach
- Abstract要約: フェデレートラーニングのための2つの新しいプロトコルからなるフレームワークである2CPを紹介する。
Crowdsource Protocolでは、アクターがトレーニングのためにモデルを前進させ、自身のデータを使用して、それに対するコントリビューションを評価することができる。
Consortium Protocolは、初期モデルを所有しておらず、データセットが利用できない場合でも、トレーナーに同じ保証を与える。
- 参考スコア(独自算出の注目度): 9.885896204530878
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Federated Learning harnesses data from multiple sources to build a single
model. While the initial model might belong solely to the actor bringing it to
the network for training, determining the ownership of the trained model
resulting from Federated Learning remains an open question. In this paper we
explore how Blockchains (in particular Ethereum) can be used to determine the
evolving ownership of a model trained with Federated Learning.
Firstly, we use the step-by-step evaluation metric to assess the relative
contributivities of participants in a Federated Learning process. Next, we
introduce 2CP, a framework comprising two novel protocols for Blockchained
Federated Learning, which both reward contributors with shares in the final
model based on their relative contributivity. The Crowdsource Protocol allows
an actor to bring a model forward for training, and use their own data to
evaluate the contributions made to it. Potential trainers are guaranteed a fair
share of the resulting model, even in a trustless setting. The Consortium
Protocol gives trainers the same guarantee even when no party owns the initial
model and no evaluator is available.
We conduct experiments with the MNIST dataset that reveal sound
contributivity scores resulting from both Protocols by rewarding larger
datasets with greater shares in the model. Our experiments also showed the
necessity to pair 2CP with a robust model aggregation mechanism to discard low
quality inputs coming from model poisoning attacks.
- Abstract(参考訳): Federated Learningは複数のソースからのデータを活用して単一のモデルを構築する。
初期モデルは、トレーニングのためにアクターがネットワークに導入する可能性があるが、フェデレートラーニングによるトレーニングモデルのオーナシップは、依然としてオープンな問題である。
本稿では、フェデレートラーニングでトレーニングされたモデルの進化的オーナシップを決定するために、ブロックチェーン(特にEthereum)をどのように使用できるかを検討する。
まず,フェデレート学習プロセスにおける参加者の相対的貢献度を評価するために,ステップバイステップ評価指標を用いる。
次に,2cpという,ブロックチェーン型フェデレーション学習のための2つの新たなプロトコルを紹介する。
crowdsourceプロトコルでは、アクタがトレーニングのためにモデルを前進させ、自身のデータを使用して貢献度を評価することができる。
潜在的なトレーナーは、信頼できない環境でも、結果のモデルの公平なシェアを保証されます。
Consortium Protocolは、初期モデルを所有しておらず、評価者がいない場合でも、トレーナーに同じ保証を与える。
mnistデータセットを用いて実験を行い、モデルの共有度が大きい大きなデータセットを報奨することにより、両方のプロトコルから生じる音の帰結スコアを明らかにした。
また, 2cpとロバストなモデル集約機構を組み合わせることで, モデル中毒攻撃による低品質入力を破棄する必要性を示した。
関連論文リスト
- Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - A Secure Aggregation for Federated Learning on Long-Tailed Data [26.168909973264707]
フェデレートラーニング(FL)は、参加者間のトレーニングデータの非バランス分布と、ビザンティンノードによるモデルアタックの2つの課題に直面している。
悪意あるモデルの拒絶と重要なモデルの必然的選択のために,新しい2層アグリゲーション法を提案する。
予備実験は、シンクタンクがグローバルアグリゲーションに有効なモデル選択をすることができることを検証した。
論文 参考訳(メタデータ) (2023-07-17T08:42:21Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - A Marketplace for Trading AI Models based on Blockchain and Incentives
for IoT Data [24.847898465750667]
機械学習(ML)の新たなパラダイムは、学習モデルを異種エージェントのグループに部分的に配信するフェデレートされたアプローチであり、エージェントは自身のデータでモデルをローカルにトレーニングすることができる。
モデルの評価の問題や、協調トレーニングやデータ/モデルの取引に対するインセンティブの問題は、文献において限られた扱いを受けてきた。
本稿では、信頼されたMLベースのネットワーク上でのMLモデルトレーディングの新しいエコシステムを提案する。買い手はML市場から関心のモデルを取得することができ、興味のある売り手はそのモデルの品質を高めるためにローカルな計算に費やす。
論文 参考訳(メタデータ) (2021-12-06T08:52:42Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Transparent Contribution Evaluation for Secure Federated Learning on
Blockchain [10.920274650337559]
ブロックチェーンベースのフェデレーション学習フレームワークと、各参加者のコントリビューションを透過的に評価するプロトコルを提案します。
本フレームワークは,モデル構築フレーズにおけるすべての当事者のプライバシを保護し,モデル更新に基づくコントリビューションを透過的に評価する。
論文 参考訳(メタデータ) (2021-01-26T05:49:59Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Analysis of Models for Decentralized and Collaborative AI on Blockchain [0.0]
本稿では,自己評価のインセンティブメカニズムを用いる際のベストプラクティスを提案するために,いくつかのモデルと構成を用いて評価する。
モデルがパブリックブロックチェーン上でスマートコントラクトでホストされている場合、データセット毎にいくつかの要因を比較します。
論文 参考訳(メタデータ) (2020-09-14T21:38:55Z) - BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning [2.0625936401496237]
BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能なフェデレーション学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
論文 参考訳(メタデータ) (2020-07-08T02:24:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。