論文の概要: Communication Efficient Adaptive Model-Driven Quantum Federated Learning
- arxiv url: http://arxiv.org/abs/2506.04548v1
- Date: Thu, 05 Jun 2025 01:48:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.482147
- Title: Communication Efficient Adaptive Model-Driven Quantum Federated Learning
- Title(参考訳): 適応型モデル駆動型量子フェデレーション学習のコミュニケーション効率
- Authors: Dev Gurung, Shiva Raj Pokhrel,
- Abstract要約: 巨大なデータセットと多数の参加デバイスを使用したトレーニングは、フェデレートラーニング(FL)のボトルネックにつながる
モデル駆動型量子フェデレーション学習アルゴリズム(mdQFL)を導入し,これらの課題に対処する。
以上の結果から,最終モデルの精度以上を維持しつつ,通信コストの50%近くを削減できることを示した。
- 参考スコア(独自算出の注目度): 13.782852293291493
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Training with huge datasets and a large number of participating devices leads to bottlenecks in federated learning (FL). Furthermore, the challenges of heterogeneity between multiple FL clients affect the overall performance of the system. In a quantum federated learning (QFL) context, we address these three main challenges: i) training bottlenecks from massive datasets, ii) the involvement of a substantial number of devices, and iii) non-IID data distributions. We introduce a model-driven quantum federated learning algorithm (mdQFL) to tackle these challenges. Our proposed approach is efficient and adaptable to various factors, including different numbers of devices. To the best of our knowledge, it is the first to explore training and update personalization, as well as test generalization within a QFL setting, which can be applied to other FL scenarios. We evaluated the efficiency of the proposed mdQFL framework through extensive experiments under diverse non-IID data heterogeneity conditions using various datasets within the Qiskit environment. Our results demonstrate a nearly 50% decrease in total communication costs while maintaining or, in some cases, exceeding the accuracy of the final model and consistently improving local model training compared to the standard QFL baseline. Moreover, our experimental evaluation thoroughly explores the QFL and mdQFL algorithms, along with several influencing factors. In addition, we present a theoretical analysis to clarify the complexities of the proposed algorithm. The experimental code is available at 1.
- Abstract(参考訳): 巨大なデータセットと多数の参加デバイスを使用したトレーニングは、フェデレーション学習(FL)のボトルネックにつながる。
さらに、複数のFLクライアント間の不均一性の課題はシステム全体の性能に影響を及ぼす。
量子連合学習(QFL)の文脈では、これらの3つの課題に対処する。
一 大量のデータセットからボトルネックを訓練すること
二 相当数の装置の関与、及び
三 非IIDデータ配信
モデル駆動型量子フェデレーション学習アルゴリズム(mdQFL)を導入し,これらの課題に対処する。
提案手法は,異なるデバイス数を含む様々な要因に対して,効率的かつ適応可能である。
我々の知る限りでは、他のFLシナリオに適用可能なQFL設定におけるテスト一般化と同様に、トレーニングとパーソナライゼーションの更新を初めて検討する。
我々は,Qiskit環境における様々なデータセットを用いて,多種多様な非IIDデータ不均一性条件下での広範囲な実験により,提案手法の有効性を検証した。
以上の結果から,従来のQFLベースラインと比較して,最終モデルの精度を上回り,一貫した局所モデルトレーニングを継続しながら,通信コストの50%近くを削減できることを示した。
さらに,本実験では,QFLとmdQFLのアルゴリズムと,いくつかの影響要因を網羅的に検討した。
さらに,提案アルゴリズムの複雑さを明らかにするための理論的解析を行った。
実験コードは1.0で利用可能だ。
関連論文リスト
- Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Prioritizing Modalities: Flexible Importance Scheduling in Federated Multimodal Learning [5.421492821020181]
Federated Learning(FL)は、デバイスがローカルデータを共有せずにモデルを協調的にトレーニングできる分散機械学習アプローチである。
FLを実世界のデータに適用することは、特に既存のFL研究が不正なデータに焦点を当てているため、課題を提示している。
我々は,各モードエンコーダのトレーニングリソースを適応的に割り当てることで,MFLにおける計算効率を向上させる新しい手法FlexModを提案する。
論文 参考訳(メタデータ) (2024-08-13T01:14:27Z) - Where is the Testbed for my Federated Learning Research? [3.910931245706272]
本稿では,連邦学習(FL)研究のための実世界テストベッドであるCoLExTを紹介する。
CoLExTは、リッチなテストベッド構成空間におけるカスタムFLアルゴリズムの実験を合理化するように設計されている。
CoLExT上で動作する一般的なFLアルゴリズムに関する最初の調査を通じて、これまで未知のトレードオフ、非効率性、およびプログラミングバグを明らかにした。
論文 参考訳(メタデータ) (2024-07-19T09:34:04Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [54.80435317208111]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - ISFL: Federated Learning for Non-i.i.d. Data with Local Importance Sampling [17.29669920752378]
理論的保証のある明示的な枠組みであるISFLを提案する。
我々はISFLの収束定理を導出し、局所的な重要度サンプリングの効果を含む。
我々は、IS重みを計算し、ISFLアルゴリズムを開発するために、水充填法を用いる。
論文 参考訳(メタデータ) (2022-10-05T09:43:58Z) - Quantization Robust Federated Learning for Efficient Inference on
Heterogeneous Devices [18.1568276196989]
フェデレートラーニング(FL)は、デバイス上に留まる分散データから機械学習モデルを分散的に学習するパラダイムである。
我々は、量子化に頑健なニューラルネットワークをトレーニングするフェデレーション平均化アルゴリズムを複数導入する。
本結果は,量子化オンデバイス推論において,異なるビット幅に対してはるかに堅牢なFLモデルにおいて,量子化ロバスト性の統合が生じることを示す。
論文 参考訳(メタデータ) (2022-06-22T05:11:44Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。