論文の概要: Knowledge Distillation for Variational Quantum Convolutional Neural Networks on Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2509.16699v1
- Date: Sat, 20 Sep 2025 13:58:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.932413
- Title: Knowledge Distillation for Variational Quantum Convolutional Neural Networks on Heterogeneous Data
- Title(参考訳): 不均一データに基づく変分量子畳み込みニューラルネットワークの知識蒸留
- Authors: Kai Yu, Binbin Cai, Song Lin,
- Abstract要約: 異種データに基づく変分量子畳み込みニューラルネットワークのための知識蒸留フレームワークを提案する。
このフレームワークは、リソース適応型VQCNN回路の構成をガイドするクライアントデータに基づく量子ゲート数推定機構を備えている。
集約中、知識蒸留戦略はソフトラベルとハードラベルの両方を統合し、グローバルモデルを形成する。
- 参考スコア(独自算出の注目度): 10.097936534024909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed quantum machine learning faces significant challenges due to heterogeneous client data and variations in local model structures, which hinder global model aggregation. To address these challenges, we propose a knowledge distillation framework for variational quantum convolutional neural networks on heterogeneous data. The framework features a quantum gate number estimation mechanism based on client data, which guides the construction of resource-adaptive VQCNN circuits. Particle swarm optimization is employed to efficiently generate personalized quantum models tailored to local data characteristics. During aggregation, a knowledge distillation strategy integrating both soft-label and hard-label supervision consolidates knowledge from heterogeneous clients using a public dataset, forming a global model while avoiding parameter exposure and privacy leakage. Theoretical analysis shows that proposed framework benefits from quantum high-dimensional representation, offering advantages over classical approaches, and minimizes communication by exchanging only model indices and test outputs. Extensive simulations on the PennyLane platform validate the effectiveness of the gate number estimation and distillation-based aggregation. Experimental results demonstrate that the aggregated global model achieves accuracy close to fully supervised centralized training. These results shown that proposed methods can effectively handle heterogeneity, reduce resource consumption, and maintain performance, highlighting its potential for scalable and privacy-preserving distributed quantum learning.
- Abstract(参考訳): 分散量子機械学習は、異種クライアントデータと、グローバルモデル集約を妨げる局所モデル構造の変化により、大きな課題に直面している。
これらの課題に対処するために、異種データに基づく変分量子畳み込みニューラルネットワークのための知識蒸留フレームワークを提案する。
このフレームワークは、リソース適応型VQCNN回路の構成をガイドするクライアントデータに基づく量子ゲート数推定機構を備えている。
局所的なデータ特性に合わせたパーソナライズされた量子モデルを効率的に生成するために、パーティクルスウォーム最適化を用いる。
集約中、ソフトラベルとハードラベルの双方を統合した知識蒸留戦略は、公開データセットを使用して異種クライアントからの知識を集約し、パラメータの露出やプライバシーの漏洩を回避しつつ、グローバルモデルを形成する。
理論的分析により、提案されるフレームワークは量子高次元表現の恩恵を受け、古典的アプローチよりも有利であり、モデル指標とテスト出力のみを交換することで通信を最小化することを示した。
ペニーレーンプラットフォーム上での大規模シミュレーションにより,ゲート数推定と蒸留に基づく凝集の有効性が検証された。
実験結果から, 集約された大域的モデルにより, 完全に教師付き集中訓練に近い精度が得られた。
これらの結果から,提案手法は不均一性を効果的に処理し,資源消費を低減し,性能を保ち,スケーラブルでプライバシに保護された分散量子学習の可能性を強調した。
関連論文リスト
- Boosting Generalization Performance in Model-Heterogeneous Federated Learning Using Variational Transposed Convolution [0.27309692684728615]
Federated Learning(FL)は、分散クライアントがローカルデータを効率的に処理できるようにする、先駆的な機械学習パラダイムである。
従来のモデル均質なアプローチは、主に局所的なトレーニング手順を正規化したり、集約においてクライアントの重みを動的に調整したりする。
モデルアグリゲーションなしで未確認データに対するクライアントの一般化性能を向上させるモデル不均一FLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-03T08:55:18Z) - Enhancing Quantum Federated Learning with Fisher Information-Based Optimization [0.0]
本稿では,ローカルクライアントモデル上で計算されたフィッシャー情報を利用する量子フェデレートラーニング(QFL)アルゴリズムを提案する。
このアプローチは、量子モデルの性能に大きな影響を及ぼす重要なパラメータを特定し、集約プロセス中にそれらを確実に保存する。
論文 参考訳(メタデータ) (2025-07-23T15:14:53Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Fed-QSSL: A Framework for Personalized Federated Learning under Bitwidth
and Data Heterogeneity [14.313847382199059]
Fed-QSSL (Federated Quantization-based self-supervised learning scheme) はFLシステムの不均一性に対処するために設計された。
Fed-QSSLは、デ量子化、重み付けされたアグリゲーション、再量子化をデプロイし、最終的に、各クライアントのデバイスのデータ分散と特定のインフラストラクチャの両方にパーソナライズされたモデルを作成する。
論文 参考訳(メタデータ) (2023-12-20T19:11:19Z) - Adaptive Federated Learning via New Entropy Approach [14.595709494370372]
Federated Learning (FL) は、分散機械学習フレームワークとして注目されている。
本稿では,不均一クライアント間のパラメータ偏差を軽減するために,entropy理論(FedEnt)に基づく適応型FEDerated Learningアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-27T07:57:04Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。