論文の概要: BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning
- arxiv url: http://arxiv.org/abs/2007.03856v1
- Date: Wed, 8 Jul 2020 02:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:47:58.846240
- Title: BlockFLow: An Accountable and Privacy-Preserving Solution for Federated
Learning
- Title(参考訳): BlockFLow: フェデレーション学習のための説明責任とプライバシ保護ソリューション
- Authors: Vaikkunth Mugunthan, Ravi Rahman and Lalana Kagal
- Abstract要約: BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能なフェデレーション学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
- 参考スコア(独自算出の注目度): 2.0625936401496237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning enables the development of a machine learning model among
collaborating agents without requiring them to share their underlying data.
However, malicious agents who train on random data, or worse, on datasets with
the result classes inverted, can weaken the combined model. BlockFLow is an
accountable federated learning system that is fully decentralized and
privacy-preserving. Its primary goal is to reward agents proportional to the
quality of their contribution while protecting the privacy of the underlying
datasets and being resilient to malicious adversaries. Specifically, BlockFLow
incorporates differential privacy, introduces a novel auditing mechanism for
model contribution, and uses Ethereum smart contracts to incentivize good
behavior. Unlike existing auditing and accountability methods for federated
learning systems, our system does not require a centralized test dataset,
sharing of datasets between the agents, or one or more trusted auditors; it is
fully decentralized and resilient up to a 50% collusion attack in a malicious
trust model. When run on the public Ethereum blockchain, BlockFLow uses the
results from the audit to reward parties with cryptocurrency based on the
quality of their contribution. We evaluated BlockFLow on two datasets that
offer classification tasks solvable via logistic regression models. Our results
show that the resultant auditing scores reflect the quality of the honest
agents' datasets. Moreover, the scores from dishonest agents are statistically
lower than those from the honest agents. These results, along with the
reasonable blockchain costs, demonstrate the effectiveness of BlockFLow as an
accountable federated learning system.
- Abstract(参考訳): 連合学習は、基礎となるデータを共有する必要なしに、協調エージェント間の機械学習モデルの開発を可能にする。
しかし、ランダムなデータでトレーニングする悪意のあるエージェント、あるいは結果クラスが反転したデータセットでは、組み合わせたモデルを弱める可能性がある。
BlockFLowは、完全な分散化とプライバシ保護を備えた、説明可能な連邦学習システムである。
その主な目標は、基盤となるデータセットのプライバシ保護と悪意のある敵に対する耐性を確保しながら、コントリビューションの品質に比例するエージェントに報酬を与えることである。
具体的には、blockflowはディファレンシャルプライバシを取り入れ、モデルコントリビュートのための新しい監査メカニズムを導入し、ethereumスマートコントラクトを使用して優れた振る舞いをインセンティブ化する。
フェデレートされた学習システムに対する既存の監査やアカウンタビリティ手法とは異なり、我々のシステムは中央集権的なテストデータセットを必要とせず、エージェント間でデータセットを共有するか、あるいは1つ以上の信頼できる監査者間でデータセットを共有する。
パブリックなEthereumブロックチェーン上で実行する場合、BlockFLowは監査の結果を使用して、コントリビューションの品質に基づいた暗号通貨の報酬を行う。
ロジスティック回帰モデルによって解決可能な分類タスクを提供する2つのデータセット上のblockflowを評価した。
その結果, 評価スコアは, 正直なエージェントのデータセットの品質を反映していることがわかった。
また、不正エージェントのスコアは、正直エージェントのスコアよりも統計的に低い。
これらの結果は、合理的なブロックチェーンコストとともに、説明可能なフェデレーション学習システムとしてのBlockFLowの有効性を示している。
関連論文リスト
- Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Secure Decentralized Learning with Blockchain [13.795131629462798]
Federated Learning(FL)は、モバイルとIoTデバイスにおける分散機械学習のパラダイムとしてよく知られている。
FLにおける単一障害点問題を回避するため、分散学習(DFL)がモデル集約にピアツーピア通信を使用することが提案されている。
論文 参考訳(メタデータ) (2023-10-10T23:45:17Z) - FLEDGE: Ledger-based Federated Learning Resilient to Inference and
Backdoor Attacks [8.866045560761528]
フェデレートラーニング(Federated Learning, FL)は、複数のパーティ(あるいはクライアント)がプライベートデータを共有せずに、共同で機械学習モデルをトレーニングする分散学習プロセスである。
近年の研究では、FLに対する推論および中毒攻撃の有効性が示されている。
FLEDGEと呼ばれる台帳ベースのFLフレームワークは、当事者が行動に責任を負わせ、推論や毒殺攻撃を緩和するための合理的な効率性を実現する。
論文 参考訳(メタデータ) (2023-10-03T14:55:30Z) - Defending Against Poisoning Attacks in Federated Learning with
Blockchain [12.840821573271999]
ブロックチェーンと分散台帳技術に基づくセキュアで信頼性の高いフェデレーション学習システムを提案する。
本システムでは,オンチェーン型スマートコントラクトを利用したピアツーピア投票機構と報酬アンドスラッシュ機構を組み込んで,悪意ある行動の検出と検出を行う。
論文 参考訳(メタデータ) (2023-07-02T11:23:33Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLock: Defending Malicious Behaviors in Federated Learning with
Blockchain [3.0111384920731545]
Federated Learning(FL)は、複数のデータ所有者(クライアント)が協力して機械学習モデルをトレーニングできるようにする、有望な方法だ。
ブロックチェーン上に構築されたセキュアで信頼性の高い分散型FLシステムであるFLockを実現するために,分散台帳技術(DLT)を利用することを提案する。
論文 参考訳(メタデータ) (2022-11-05T06:14:44Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。