論文の概要: IronForge: An Open, Secure, Fair, Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2301.04006v1
- Date: Sat, 7 Jan 2023 15:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-11 17:29:08.104233
- Title: IronForge: An Open, Secure, Fair, Decentralized Federated Learning
- Title(参考訳): ironforge: オープンで、安全で、公平で、分散した連合学習
- Authors: Guangsheng Yu, Xu Wang, Caijun Sun, Qin Wang, Ping Yu, Wei Ni, Ren
Ping Liu, Xiwei Xu
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを分散的に保護する効果的な機械学習(ML)アーキテクチャを提供する。
我々は,DAG(Directed Acyclic Graph)に基づくデータ構造を特徴とする新しいFLフレームワークであるtextscIronForgeを提案する。
textscIronForgeはパブリックかつオープンなネットワークで動作し、DAGのステート一貫性を有効にすることで、公平なインセンティブメカニズムをローンチする。
- 参考スコア(独自算出の注目度): 31.28361383314625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) provides an effective machine learning (ML)
architecture to protect data privacy in a distributed manner. However, the
inevitable network asynchrony, the over-dependence on a central coordinator,
and the lack of an open and fair incentive mechanism collectively hinder its
further development. We propose \textsc{IronForge}, a new generation of FL
framework, that features a Directed Acyclic Graph (DAG)-based data structure
and eliminates the need for central coordinators to achieve fully decentralized
operations. \textsc{IronForge} runs in a public and open network, and launches
a fair incentive mechanism by enabling state consistency in the DAG, so that
the system fits in networks where training resources are unevenly distributed.
In addition, dedicated defense strategies against prevalent FL attacks on
incentive fairness and data privacy are presented to ensure the security of
\textsc{IronForge}. Experimental results based on a newly developed testbed
FLSim highlight the superiority of \textsc{IronForge} to the existing prevalent
FL frameworks under various specifications in performance, fairness, and
security. To the best of our knowledge, \textsc{IronForge} is the first secure
and fully decentralized FL framework that can be applied in open networks with
realistic network and training settings.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを分散的に保護する効果的な機械学習(ML)アーキテクチャを提供する。
しかし、必然的なネットワークの非同期性、中央コーディネータへの過度な依存、オープンで公平なインセンティブ機構の欠如は、そのさらなる発展を妨げる。
本稿では,DAG(Directed Acyclic Graph)に基づくデータ構造を特徴とする新しいFLフレームワークである‘textsc{IronForge}を提案する。
\textsc{IronForge} は公開かつオープンなネットワークで動作し、DAGにおける状態整合性を有効にすることにより、トレーニングリソースが均一に分散されたネットワークに適合するように、公正なインセンティブメカニズムをローンチする。
さらに、インセンティブフェアネスとデータプライバシに対するFL攻撃に対する専用の防衛戦略が提示され、 \textsc{IronForge} のセキュリティが保証される。
新たに開発されたテストベッド FLSim に基づく実験結果は、パフォーマンス、公正性、セキュリティの様々な仕様の下で、既存のFLフレームワークに対する \textsc{IronForge} の優位性を強調している。
私たちの知識を最大限に活用するために,‘textsc{IronForge} は,現実的なネットワークとトレーニング設定を備えたオープンネットワークに適用可能な,最初のセキュアで完全に分散化された FL フレームワークである。
関連論文リスト
- Scaling Decentralized Learning with FLock [14.614054170542966]
本稿では,大規模言語モデル(LLM)を微調整する分散型フレームワークであるFLockを紹介する。
ブロックチェーンベースの信頼層と経済的インセンティブを統合することで、FLockは、中央アグリゲータを、信頼できない関係者間の協力のためのセキュアで監査可能なプロトコルに置き換える。
我々の実験は、FLockフレームワークが標準FLを侵害するバックドア毒殺攻撃を防いでいることを示している。
論文 参考訳(メタデータ) (2025-07-21T08:01:43Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Chisme: Fully Decentralized Differentiated Deep Learning for Edge Intelligence [1.312141043398756]
本稿では,ネットワークエッジに堅牢なインテリジェンスを実装する際の課題に対処する,新しいプロトコルスイートであるChismeを紹介する。
Chismeには同期DFL(Chisme-DFL)と非同期GL(Chisme-GL)の両方が含まれている。
ネットワークシナリオにおける分散データおよび異種データのモデルトレーニングにおいて,Chisme手法が標準手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-05-14T23:29:09Z) - Blockchain-based Framework for Scalable and Incentivized Federated Learning [0.820828081284034]
フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にし、分散データセットを活用しながらプライバシを保存する。
従来のFLシステムは、信頼の問題や単一障害点の導入、有意義なクライアントコントリビューションのインセンティブの制限といった、集中的な集約メカニズムに依存しています。
本稿では、スマートコントラクトと新しいハイブリッドインセンティブ機構を統合することにより、これらの制限に対処するブロックチェーンベースのFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-20T00:38:35Z) - FL-DECO-BC: A Privacy-Preserving, Provably Secure, and Provenance-Preserving Federated Learning Framework with Decentralized Oracles on Blockchain for VANETs [0.0]
Vehicular Ad-Hoc Networks (VANETs) は、交通の安全と効率を改善する大きな可能性を秘めている。
VANETにおける機械学習の従来の集中型アプローチは、データのプライバシとセキュリティに関する懸念を提起している。
本稿では,VANET に特化して設計された新しいプライバシ保護・安全・実証性保護型フェデレーション学習フレームワークとして FL-DECO-BC を提案する。
論文 参考訳(メタデータ) (2024-07-30T19:09:10Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks [6.661122374160369]
連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
本稿では,ネットワーク内の配置を協調的に調整できる各種対向配置戦略において,分散FLの性能を解析する。
本稿では,敵同士の平均ネットワーク距離を最大化することにより,敵の中央性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T06:48:50Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Enhancing Scalability and Reliability in Semi-Decentralized Federated
Learning With Blockchain: Trust Penalization and Asynchronous Functionality [0.0]
本論文は, 信頼金化機構を通じて参加ノードの信頼性を高めることに焦点を当てている。
提案システムは、データのプライバシーを損なうことなく、協調的な機械学習のための公正でセキュアで透明な環境を構築することを目的としている。
論文 参考訳(メタデータ) (2023-10-30T06:05:50Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FeDiSa: A Semi-asynchronous Federated Learning Framework for Power
System Fault and Cyberattack Discrimination [1.0621485365427565]
本稿では,電力系統故障とサイバーアタック識別のための半非同期フェデレーション学習フレームワークFeDiSaを提案する。
産業用制御システムデータセットを用いた提案フレームワークの実験により,データ機密性を維持しつつ,通信遅延やストラグラーの悪影響を最小限に抑えながら,攻撃検出精度が向上した。
論文 参考訳(メタデータ) (2023-03-28T13:34:38Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - GFL: A Decentralized Federated Learning Framework Based On Blockchain [15.929643607462353]
ブロックチェーンに基づく分散FLフレームワークであるGalaxy Federated Learning Framework(GFL)を提案する。
GFLは、通信性能を向上させるために一貫したハッシュアルゴリズムを導入し、分散FL性能と帯域幅利用を改善するために、新しいリング分散FLアルゴリズム(RDFL)を提案する。
実験により、GFLは、悪意のあるノードと非独立で同一に分散した(Non-IID)データセットのデータ汚染下で、通信性能と分散FL性能を改善した。
論文 参考訳(メタデータ) (2020-10-21T13:36:59Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。