論文の概要: A Hybrid Quantum Neural Network for Split Learning
- arxiv url: http://arxiv.org/abs/2409.16593v1
- Date: Wed, 25 Sep 2024 03:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:45:19.475860
- Title: A Hybrid Quantum Neural Network for Split Learning
- Title(参考訳): 分割学習のためのハイブリッド量子ニューラルネットワーク
- Authors: Hevish Cowlessur, Chandra Thapa, Tansu Alpcan, Seyit Camtepe,
- Abstract要約: Split Learning(SL)は、リソースに制約のあるクライアントが、サーバとMLモデルを協調的にトレーニングすることを可能にする。
SL内のクライアントとサーバ間のデータプライバシの漏洩は、サーバ側のリコンストラクション攻撃のリスクをもたらす。
本稿では,ハイブリッドQMLをSLに適用したHybrid Quantum Split Learning (HQSL)を提案する。
- 参考スコア(独自算出の注目度): 10.820922744397201
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Quantum Machine Learning (QML) is an emerging field of research with potential applications to distributed collaborative learning, such as Split Learning (SL). SL allows resource-constrained clients to collaboratively train ML models with a server, reduce their computational overhead, and enable data privacy by avoiding raw data sharing. Although QML with SL has been studied, the problem remains open in resource-constrained environments where clients lack quantum computing capabilities. Additionally, data privacy leakage between client and server in SL poses risks of reconstruction attacks on the server side. To address these issues, we propose Hybrid Quantum Split Learning (HQSL), an application of Hybrid QML in SL. HQSL enables classical clients to train models with a hybrid quantum server and curtails reconstruction attacks. In addition, we introduce a novel qubit-efficient data-loading technique for designing a quantum layer in HQSL, minimizing both the number of qubits and circuit depth. Experiments on five datasets demonstrate HQSL's feasibility and ability to enhance classification performance compared to its classical models. Notably, HQSL achieves mean improvements of over 3% in both accuracy and F1-score for the Fashion-MNIST dataset, and over 1.5% in both metrics for the Speech Commands dataset. We expand these studies to include up to 100 clients, confirming HQSL's scalability. Moreover, we introduce a noise-based defense mechanism to tackle reconstruction attacks on the server side. Overall, HQSL enables classical clients to collaboratively train their models with a hybrid quantum server, leveraging quantum advantages while improving model performance and security against data privacy leakage-related reconstruction attacks.
- Abstract(参考訳): 量子機械学習(QML)は、分散コラボレーティブラーニング(SL)のような、分散コラボレーティブラーニングへの潜在的な応用に関する、新たな研究分野である。
SLにより、リソース制約のあるクライアントは、サーバでMLモデルを協調的にトレーニングし、計算オーバーヘッドを減らし、生のデータ共有を回避してデータのプライバシを可能にする。
SLを用いたQMLは研究されているが、クライアントが量子コンピューティング能力に欠けるリソース制約のある環境では未解決のままである。
さらに、SL内のクライアントとサーバ間のデータプライバシリークは、サーバ側のリコンストラクション攻撃のリスクをもたらす。
これらの課題に対処するため,本研究では,ハイブリッドQMLをSLに応用したHybrid Quantum Split Learning (HQSL)を提案する。
HQSLは、従来のクライアントがハイブリッド量子サーバでモデルをトレーニングし、再構築攻撃を縮小することを可能にする。
さらに、HQSLにおける量子層を設計するための新しい量子ビット効率データローディング手法を導入し、量子ビット数と回路深さを最小化する。
5つのデータセットの実験では、HQSLの実用性と、従来のモデルと比較して分類性能を向上させる能力を示している。
特に、HQSLは、Fashion-MNISTデータセットの精度とF1スコアの両方で平均3%以上の改善を達成し、Speech Commandsデータセットのメトリクスの1.5%以上を達成している。
これらの研究を最大100のクライアントに拡張し、HQSLのスケーラビリティを確認します。
さらに,サーバ側のリコンストラクション攻撃に対処する防音機構を導入する。
HQSLは全体として、古典的なクライアントがハイブリッド量子サーバでモデルを協調的にトレーニングし、量子上のアドバンテージを活用しながら、モデルのパフォーマンスとデータプライバシリーク関連リコンストラクション攻撃に対するセキュリティを改善します。
関連論文リスト
- Personalized Quantum Federated Learning for Privacy Image Classification [52.04404538764307]
画像の不均衡な分布の場合のクライアントモデルの性格を高めるために、パーソナライズされた量子フェデレーション学習アルゴリズムを提案する。
実験結果から,パーソナライズされた量子フェデレーション学習アルゴリズムは,高性能なグローバルモデルとローカルモデルを得ることができることが示された。
論文 参考訳(メタデータ) (2024-10-03T14:53:04Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - PristiQ: A Co-Design Framework for Preserving Data Security of Quantum Learning in the Cloud [7.87660609586004]
クラウドコンピューティングは量子機械学習(QML)においてデータ漏洩のリスクが高い
本稿では,QMLのデータセキュリティをQパラダイム,すなわちPristiQで保護するための協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-20T22:03:32Z) - Federated Quantum Long Short-term Memory (FedQLSTM) [58.50321380769256]
量子フェデレーション学習(QFL)は、量子機械学習(QML)モデルを使用して、複数のクライアント間の協調学習を容易にする。
関数の近似に時間的データを利用するQFLフレームワークの開発に前向きな作業は行われていない。
量子長短期メモリ(QLSTM)モデルと時間データを統合する新しいQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T21:40:47Z) - A Quantum Federated Learning Framework for Classical Clients [6.418941009007091]
量子フェデレートラーニング(QFL)は、複数のクライアント間で量子機械学習(QML)モデルの協調トレーニングを可能にする。
量子コンピューティングリソースの限られた可用性は、各クライアントが量子コンピューティング能力を取得するための課題となる。
CC-QFLと呼ばれる古典的クライアント向けに設計されたQFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-18T19:29:55Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Elastic Entangled Pair and Qubit Resource Management in Quantum Cloud
Computing [73.7522199491117]
量子クラウドコンピューティング(QCC)は、量子コンピューティングリソースを効率的に提供するための有望なアプローチを提供する。
ユーザ需要の変動と量子回路の要求は、効率的なリソース供給のために困難である。
本稿では、量子コンピューティングとネットワークリソースのプロビジョニングのためのリソース割り当てモデルを提案する。
論文 参考訳(メタデータ) (2023-07-25T00:38:46Z) - Split Learning without Local Weight Sharing to Enhance Client-side Data Privacy [11.092451849022268]
Split Learning(SL)は、クライアントサーバ間で詳細なモデルを分散し、プライベートデータをローカルに保持することで、ユーザのデータプライバシを保護することを目的としている。
本稿ではまず,SL内のクライアント間の局所的な重み共有から,モデルインバージョン攻撃によるデータプライバシリークが悪化することを明らかにする。
データプライバシーの漏洩問題を解決するために,プライバシ強化型SL(P-SL,ローカルウェイト共有なしSL)を提案し,解析する。
論文 参考訳(メタデータ) (2022-12-01T03:35:14Z) - Binarizing Split Learning for Data Privacy Enhancement and Computation
Reduction [8.40552206158625]
Split Learning(SL)は、クライアントが生データを共有することなく、サーバとディープラーニングモデルを協調的にトレーニングすることで、データのプライバシ保護を可能にする。
本研究では、高速な計算とメモリ使用量の削減のために、SLローカル層を二項化することを提案する。
我々の結果は、プライバシー保護の要求が高い軽量IoT/モバイルアプリケーションに対して、B-SLモデルが有望であることを実証した。
論文 参考訳(メタデータ) (2022-06-10T04:07:02Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。