論文の概要: Enhancing Quantum Federated Learning with Fisher Information-Based Optimization
- arxiv url: http://arxiv.org/abs/2507.17580v1
- Date: Wed, 23 Jul 2025 15:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.051168
- Title: Enhancing Quantum Federated Learning with Fisher Information-Based Optimization
- Title(参考訳): 漁業情報に基づく最適化による量子フェデレーション学習の強化
- Authors: Amandeep Singh Bhatia, Sabre Kais,
- Abstract要約: 本稿では,ローカルクライアントモデル上で計算されたフィッシャー情報を利用する量子フェデレートラーニング(QFL)アルゴリズムを提案する。
このアプローチは、量子モデルの性能に大きな影響を及ぼす重要なパラメータを特定し、集約プロセス中にそれらを確実に保存する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has become increasingly popular across different sectors, offering a way for clients to work together to train a global model without sharing sensitive data. It involves multiple rounds of communication between the global model and participating clients, which introduces several challenges like high communication costs, heterogeneous client data, prolonged processing times, and increased vulnerability to privacy threats. In recent years, the convergence of federated learning and parameterized quantum circuits has sparked significant research interest, with promising implications for fields such as healthcare and finance. By enabling decentralized training of quantum models, it allows clients or institutions to collaboratively enhance model performance and outcomes while preserving data privacy. Recognizing that Fisher information can quantify the amount of information that a quantum state carries under parameter changes, thereby providing insight into its geometric and statistical properties. We intend to leverage this property to address the aforementioned challenges. In this work, we propose a Quantum Federated Learning (QFL) algorithm that makes use of the Fisher information computed on local client models, with data distributed across heterogeneous partitions. This approach identifies the critical parameters that significantly influence the quantum model's performance, ensuring they are preserved during the aggregation process. Our research assessed the effectiveness and feasibility of QFL by comparing its performance against other variants, and exploring the benefits of incorporating Fisher information in QFL settings. Experimental results on ADNI and MNIST datasets demonstrate the effectiveness of our approach in achieving better performance and robustness against the quantum federated averaging method.
- Abstract(参考訳): フェデレートラーニング(FL)は、クライアントが機密データを共有せずにグローバルモデルをトレーニングする方法として、さまざまな分野で人気が高まっている。
グローバルモデルと参加するクライアント間の通信が複数回行われ、高い通信コスト、異種クライアントデータ、処理時間の延長、プライバシの脅威に対する脆弱性の増加など、いくつかの課題が導入されている。
近年、フェデレートラーニングとパラメタライズド量子回路の収束は、医療やファイナンスといった分野で有望な意味を持つ研究の関心を喚起している。
量子モデルの分散トレーニングを可能にすることで、クライアントや機関がデータのプライバシを保持しながら、モデルのパフォーマンスと成果を協調的に向上することができる。
フィッシャー情報は、量子状態がパラメータ変化の下で持つ情報の量を定量化し、幾何学的および統計的性質に関する洞察を与えることができる。
私たちは、上記の課題に対処するために、この特性を活用するつもりです。
本研究では、ローカルクライアントモデル上で計算されたフィッシャー情報を利用して、不均一なパーティションに分散する量子フェデレートラーニング(QFL)アルゴリズムを提案する。
このアプローチは、量子モデルの性能に大きな影響を及ぼす重要なパラメータを特定し、集約プロセス中にそれらを確実に保存する。
本研究は,その性能を他の変種と比較することにより,QFLの有効性と実現可能性を評価し,QFL設定にフィッシャー情報を組み込むことのメリットを探る。
ADNIおよびMNISTデータセットを用いた実験結果から,量子フェデレート平均化法に対して,より優れた性能とロバスト性を実現するためのアプローチの有効性が示された。
関連論文リスト
- Enhancing Federated Learning Through Secure Cluster-Weighted Client Aggregation [4.869042695112397]
フェデレーテッド・ラーニング(FL)は機械学習において有望なパラダイムとして登場した。
FLでは、各デバイスにまたがるローカルデータセットに基づいて、グローバルモデルを反復的にトレーニングする。
本稿では、クライアント更新に重みを動的に割り当てるために、相似性スコア、k平均クラスタリング、和解信頼スコアを利用する新しいFLフレームワーク、ClusterGuardFLを紹介する。
論文 参考訳(メタデータ) (2025-03-29T04:29:24Z) - Adversarial Federated Consensus Learning for Surface Defect Classification Under Data Heterogeneity in IIoT [8.48069043458347]
産業用IoT(Industrial Internet of Things)における各種エンティティからの十分なトレーニングデータの収集と集中化は難しい。
フェデレートラーニング(FL)は、クライアント間で協調的なグローバルモデルトレーニングを可能にするソリューションを提供する。
我々は,Adversarial Federated Consensus Learning (AFedCL) という新しいFLアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-24T03:59:32Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - FedCAda: Adaptive Client-Side Optimization for Accelerated and Stable Federated Learning [57.38427653043984]
フェデレートラーニング(FL)は、分散クライアント間の機械学習モデルの協調トレーニングにおいて、顕著なアプローチとして登場した。
我々は,この課題に対処するために設計された,革新的なクライアント適応アルゴリズムであるFedCAdaを紹介する。
我々はFedCAdaが適応性、収束性、安定性、全体的な性能の点で最先端の手法より優れていることを実証する。
論文 参考訳(メタデータ) (2024-05-20T06:12:33Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Federated Learning Model Aggregation in Heterogenous Aerial and Space Networks [36.283273000969636]
フェデレートラーニング(Federated Learning)は、航空・宇宙ネットワーク(ASN)におけるネットワークとデータプライバシの制約の下で、有望なアプローチである。
本稿では、高多様性クライアントからの更新を強調し、低多様性クライアントからの更新の影響を低減させる新しいフレームワークを提案する。
WeAvgCSはFashionMNISTでは46%,CIFAR10では38%,ベンチマークでは38%の速度で収束することができた。
論文 参考訳(メタデータ) (2023-05-24T21:34:36Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。