論文の概要: IronForge: An Open, Secure, Fair, Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2301.04006v1
- Date: Sat, 7 Jan 2023 15:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 17:29:08.104233
- Title: IronForge: An Open, Secure, Fair, Decentralized Federated Learning
- Title(参考訳): ironforge: オープンで、安全で、公平で、分散した連合学習
- Authors: Guangsheng Yu, Xu Wang, Caijun Sun, Qin Wang, Ping Yu, Wei Ni, Ren
Ping Liu, Xiwei Xu
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを分散的に保護する効果的な機械学習(ML)アーキテクチャを提供する。
我々は,DAG(Directed Acyclic Graph)に基づくデータ構造を特徴とする新しいFLフレームワークであるtextscIronForgeを提案する。
textscIronForgeはパブリックかつオープンなネットワークで動作し、DAGのステート一貫性を有効にすることで、公平なインセンティブメカニズムをローンチする。
- 参考スコア(独自算出の注目度): 31.28361383314625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) provides an effective machine learning (ML)
architecture to protect data privacy in a distributed manner. However, the
inevitable network asynchrony, the over-dependence on a central coordinator,
and the lack of an open and fair incentive mechanism collectively hinder its
further development. We propose \textsc{IronForge}, a new generation of FL
framework, that features a Directed Acyclic Graph (DAG)-based data structure
and eliminates the need for central coordinators to achieve fully decentralized
operations. \textsc{IronForge} runs in a public and open network, and launches
a fair incentive mechanism by enabling state consistency in the DAG, so that
the system fits in networks where training resources are unevenly distributed.
In addition, dedicated defense strategies against prevalent FL attacks on
incentive fairness and data privacy are presented to ensure the security of
\textsc{IronForge}. Experimental results based on a newly developed testbed
FLSim highlight the superiority of \textsc{IronForge} to the existing prevalent
FL frameworks under various specifications in performance, fairness, and
security. To the best of our knowledge, \textsc{IronForge} is the first secure
and fully decentralized FL framework that can be applied in open networks with
realistic network and training settings.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを分散的に保護する効果的な機械学習(ML)アーキテクチャを提供する。
しかし、必然的なネットワークの非同期性、中央コーディネータへの過度な依存、オープンで公平なインセンティブ機構の欠如は、そのさらなる発展を妨げる。
本稿では,DAG(Directed Acyclic Graph)に基づくデータ構造を特徴とする新しいFLフレームワークである‘textsc{IronForge}を提案する。
\textsc{IronForge} は公開かつオープンなネットワークで動作し、DAGにおける状態整合性を有効にすることにより、トレーニングリソースが均一に分散されたネットワークに適合するように、公正なインセンティブメカニズムをローンチする。
さらに、インセンティブフェアネスとデータプライバシに対するFL攻撃に対する専用の防衛戦略が提示され、 \textsc{IronForge} のセキュリティが保証される。
新たに開発されたテストベッド FLSim に基づく実験結果は、パフォーマンス、公正性、セキュリティの様々な仕様の下で、既存のFLフレームワークに対する \textsc{IronForge} の優位性を強調している。
私たちの知識を最大限に活用するために,‘textsc{IronForge} は,現実的なネットワークとトレーニング設定を備えたオープンネットワークに適用可能な,最初のセキュアで完全に分散化された FL フレームワークである。
関連論文リスト
- FL-DECO-BC: A Privacy-Preserving, Provably Secure, and Provenance-Preserving Federated Learning Framework with Decentralized Oracles on Blockchain for VANETs [0.0]
Vehicular Ad-Hoc Networks (VANETs) は、交通の安全と効率を改善する大きな可能性を秘めている。
VANETにおける機械学習の従来の集中型アプローチは、データのプライバシとセキュリティに関する懸念を提起している。
本稿では,VANET に特化して設計された新しいプライバシ保護・安全・実証性保護型フェデレーション学習フレームワークとして FL-DECO-BC を提案する。
論文 参考訳(メタデータ) (2024-07-30T19:09:10Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Enhancing Scalability and Reliability in Semi-Decentralized Federated
Learning With Blockchain: Trust Penalization and Asynchronous Functionality [0.0]
本論文は, 信頼金化機構を通じて参加ノードの信頼性を高めることに焦点を当てている。
提案システムは、データのプライバシーを損なうことなく、協調的な機械学習のための公正でセキュアで透明な環境を構築することを目的としている。
論文 参考訳(メタデータ) (2023-10-30T06:05:50Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - GFL: A Decentralized Federated Learning Framework Based On Blockchain [15.929643607462353]
ブロックチェーンに基づく分散FLフレームワークであるGalaxy Federated Learning Framework(GFL)を提案する。
GFLは、通信性能を向上させるために一貫したハッシュアルゴリズムを導入し、分散FL性能と帯域幅利用を改善するために、新しいリング分散FLアルゴリズム(RDFL)を提案する。
実験により、GFLは、悪意のあるノードと非独立で同一に分散した(Non-IID)データセットのデータ汚染下で、通信性能と分散FL性能を改善した。
論文 参考訳(メタデータ) (2020-10-21T13:36:59Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。