論文の概要: Fedcompass: Federated Clustered and Periodic Aggregation Framework for Hybrid Classical-Quantum Models
- arxiv url: http://arxiv.org/abs/2602.03052v1
- Date: Tue, 03 Feb 2026 03:28:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.220076
- Title: Fedcompass: Federated Clustered and Periodic Aggregation Framework for Hybrid Classical-Quantum Models
- Title(参考訳): Fedcompass: ハイブリッド古典量子モデルのためのFederated Clustered and Periodic Aggregation Framework
- Authors: Yueheng Wang, Xing He, Zinuo Cai, Rui Zhang, Ruhui Ma, Yuan Liu, Rajkumar Buyya,
- Abstract要約: FEDCOMPASSは、ハイブリッド古典量子化学習のための階層化集約フレームワークである。
試験精度を最大10.22%向上し、非IID条件下での収束安定性を向上させる。
- 参考スコア(独自算出の注目度): 26.947212109849044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning enables collaborative model training across decentralized clients under privacy constraints. Quantum computing offers potential for alleviating computational and communication burdens in federated learning, yet hybrid classical-quantum federated learning remains susceptible to performance degradation under non-IID data. To address this,we propose FEDCOMPASS, a layered aggregation framework for hybrid classical-quantum federated learning. FEDCOMPASS employs spectral clustering to group clients by class distribution similarity and performs cluster-wise aggregation for classical feature extractors. For quantum parameters, it uses circular mean aggregation combined with adaptive optimization to ensure stable global updates. Experiments on three benchmark datasets show that FEDCOMPASS improves test accuracy by up to 10.22% and enhances convergence stability under non-IID settings, outperforming six strong federated learning baselines.
- Abstract(参考訳): フェデレーション学習は、プライバシ制約の下で分散クライアント間で協調的なモデルトレーニングを可能にする。
量子コンピューティングは、フェデレーション学習における計算と通信の負担を軽減する可能性があるが、ハイブリッド古典量子フェデレーション学習は、非IIDデータによる性能劣化の影響を受けないままである。
そこで本研究では,ハイブリッド古典量子化学習のための階層化集約フレームワークFEDCOMPASSを提案する。
FEDCOMPASSは、クラス分布の類似性によってグループクライアントにスペクトルクラスタリングを導入し、古典的特徴抽出器のためのクラスタワイズアグリゲーションを実行する。
量子パラメータでは、安定なグローバル更新を保証するために、円平均アグリゲーションと適応最適化を組み合わせる。
3つのベンチマークデータセットの実験では、FEDCOMPASSはテスト精度を最大10.22%向上し、非IID設定での収束安定性を高め、6つの強力な連邦学習ベースラインを上回っている。
関連論文リスト
- QFed: Parameter-Compact Quantum-Classical Federated Learning [7.031234391152914]
エッジデバイスネットワーク間の計算効率向上を目的とした,量子対応のフェデレーション学習フレームワークであるQFedを紹介する。
実験結果から,スケーラブルな環境での古典的アプローチに匹敵する精度を維持しつつ,VGG様モデルのパラメータカウントを77.6%削減できることがわかった。
論文 参考訳(メタデータ) (2026-01-14T19:16:20Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedAC: An Adaptive Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ化フェデレーション学習(CFL)は、データ不均一性から生じる性能劣化を軽減するために提案される。
我々は,グローバル知識をクラスタ内学習に効率的に統合する適応型CFLフレームワークFedACを提案する。
実験の結果、FedACは試験精度が1.82%、12.67%向上した。
論文 参考訳(メタデータ) (2024-03-25T06:43:28Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。