論文の概要: DAG-AFL:Directed Acyclic Graph-based Asynchronous Federated Learning
- arxiv url: http://arxiv.org/abs/2507.20571v1
- Date: Mon, 28 Jul 2025 07:06:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.958656
- Title: DAG-AFL:Directed Acyclic Graph-based Asynchronous Federated Learning
- Title(参考訳): DAG-AFL:非巡回グラフに基づく非同期フェデレーション学習
- Authors: Shuaipeng Zhang, Lanju Kong, Yixin Zhang, Wei He, Yongqing Zheng, Han Yu, Lizhen Cui,
- Abstract要約: 本稿では,DAG-AFL(Directed Acyclic Graph-based Asynchronous Federated Learning)フレームワークを提案する。
本研究では,DAGに基づく信頼検証戦略を用いて,時間的新鮮度,ノード到達性,モデル精度を考慮したチップ選択アルゴリズムを開発した。
3つのデータセットの実験では、DAG-AFLはトレーニング効率とモデルの精度を平均で22.7%と6.5%改善している。
- 参考スコア(独自算出の注目度): 33.25534229267438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the distributed nature of federated learning (FL), the vulnerability of the global model and the need for coordination among many client devices pose significant challenges. As a promising decentralized, scalable and secure solution, blockchain-based FL methods have attracted widespread attention in recent years. However, traditional consensus mechanisms designed for Proof of Work (PoW) similar to blockchain incur substantial resource consumption and compromise the efficiency of FL, particularly when participating devices are wireless and resource-limited. To address asynchronous client participation and data heterogeneity in FL, while limiting the additional resource overhead introduced by blockchain, we propose the Directed Acyclic Graph-based Asynchronous Federated Learning (DAG-AFL) framework. We develop a tip selection algorithm that considers temporal freshness, node reachability and model accuracy, with a DAG-based trusted verification strategy. Extensive experiments on 3 benchmarking datasets against eight state-of-the-art approaches demonstrate that DAG-AFL significantly improves training efficiency and model accuracy by 22.7% and 6.5% on average, respectively.
- Abstract(参考訳): フェデレートラーニング(FL)の分散特性のため、グローバルモデルの脆弱性と多くのクライアントデバイス間の協調の必要性が大きな課題となっている。
有望な分散型でスケーラブルでセキュアなソリューションとして、ブロックチェーンベースのFLメソッドが近年広く注目を集めている。
しかしながら、ブロックチェーンに類似したPoW(Proof of Work)用に設計された従来のコンセンサスメカニズムは、特にワイヤレスでリソース制限のあるデバイスでは、多くのリソース消費を発生させ、FLの効率を損なう。
FLにおける非同期クライアントの参加とデータの均一性に対処するため,ブロックチェーンによって導入された追加リソースのオーバーヘッドを抑えつつ,DAG-AFL(Directed Acyclic Graph-based Asynchronous Federated Learning)フレームワークを提案する。
本研究では,DAGに基づく信頼検証戦略を用いて,時間的新鮮度,ノード到達性,モデル精度を考慮したチップ選択アルゴリズムを開発した。
8つの最先端アプローチに対する3つのベンチマークデータセットに対する大規模な実験により、DAG-AFLはトレーニング効率とモデルの精度をそれぞれ平均で22.7%と6.5%改善することが示された。
関連論文リスト
- Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Asynchronous Federated Learning: A Scalable Approach for Decentralized Machine Learning [0.9208007322096533]
フェデレートラーニング(FL)は、分散機械学習の強力なパラダイムとして登場し、生データを共有することなく、さまざまなクライアント間で協調的なモデルトレーニングを可能にする。
従来のFLアプローチは、同期クライアントのアップデートに依存しているため、スケーラビリティと効率の制限に直面することが多い。
本稿では、クライアントが独立して非同期にグローバルモデルを更新できる非同期フェデレートラーニング(AFL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:11:02Z) - Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - A Safe Genetic Algorithm Approach for Energy Efficient Federated
Learning in Wireless Communication Networks [53.561797148529664]
フェデレートラーニング(FL)は、従来の集中型アプローチとは対照的に、デバイスが協調的にモデルトレーニングを行う分散技術として登場した。
FLの既存の取り組みにもかかわらず、その環境影響は、無線ネットワークへの適用性に関するいくつかの重要な課題が特定されているため、まだ調査中である。
現在の研究は遺伝的アルゴリズム(GA)アプローチを提案しており、FLプロセス全体のエネルギー消費と不要な資源利用の両方を最小化することを目標としている。
論文 参考訳(メタデータ) (2023-06-25T13:10:38Z) - Towards On-Device Federated Learning: A Direct Acyclic Graph-based
Blockchain Approach [2.9202274421296943]
本稿では,DAG(Direct Acyclic Graph)ベースのブロックチェーンシステム(DAG-FL)を用いたフェデレートラーニングを支援するフレームワークを提案する。
2つのアルゴリズムDAG-FL ControllingとDAG-FL Updatingは、DAG-FLコンセンサスメカニズムの操作を精巧にするために異なるノードで動作するように設計されています。
論文 参考訳(メタデータ) (2021-04-27T10:29:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。