論文の概要: Exponential Quantum Communication Advantage in Distributed Learning
- arxiv url: http://arxiv.org/abs/2310.07136v1
- Date: Wed, 11 Oct 2023 02:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 00:43:48.737547
- Title: Exponential Quantum Communication Advantage in Distributed Learning
- Title(参考訳): 分散学習における指数量子コミュニケーション
- Authors: Dar Gilboa and Jarrod R. McClean
- Abstract要約: 本稿では、データを特殊な量子状態に符号化する量子ネットワーク上での分散計算のためのフレームワークを提案する。
このフレームワーク内の特定のモデルに対して、勾配降下を用いた推論と訓練は、古典的なアナログと比較して指数関数的に少ない通信で実行可能であることを証明した。
- 参考スコア(独自算出の注目度): 5.793818856075257
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training and inference with large machine learning models that far exceed the
memory capacity of individual devices necessitates the design of distributed
architectures, forcing one to contend with communication constraints. We
present a framework for distributed computation over a quantum network in which
data is encoded into specialized quantum states. We prove that for certain
models within this framework, inference and training using gradient descent can
be performed with exponentially less communication compared to their classical
analogs, and with relatively modest time and space complexity overheads
relative to standard gradient-based methods. To our knowledge, this is the
first example of exponential quantum advantage for a generic class of machine
learning problems with dense classical data that holds regardless of the data
encoding cost. Moreover, we show that models in this class can encode highly
nonlinear features of their inputs, and their expressivity increases
exponentially with model depth. We also find that, interestingly, the
communication advantage nearly vanishes for simpler linear classifiers. These
results can be combined with natural privacy advantages in the communicated
quantum states that limit the amount of information that can be extracted from
them about the data and model parameters. Taken as a whole, these findings form
a promising foundation for distributed machine learning over quantum networks.
- Abstract(参考訳): 個々のデバイスのメモリ容量をはるかに超える大規模な機械学習モデルによるトレーニングと推論は、分散アーキテクチャの設計を必要とするため、通信制約と競合せざるを得ない。
本稿では、データを特殊な量子状態に符号化する量子ネットワーク上での分散計算のためのフレームワークを提案する。
このフレームワーク内の特定のモデルに対して、勾配勾配を用いた推論と訓練は、古典的なアナログと比較して指数関数的に少ない通信で行うことができ、標準勾配法と比較して比較的穏やかな時間と空間の複雑さのオーバーヘッドで行うことができる。
我々の知る限り、これはデータエンコーディングコストに関係なく保持される高密度な古典データを持つ機械学習問題の一般的なクラスに対する指数量子優位の最初の例である。
さらに、このクラスのモデルが入力の高非線形特徴を符号化できることを示し、その表現性はモデル深度とともに指数関数的に増加することを示した。
また、興味深いことに、単純な線形分類器では通信の利点はほとんどなくなる。
これらの結果は、データとモデルパラメータに関する情報から抽出できる量を制限する通信された量子状態において、自然なプライバシーの利点と組み合わせることができる。
これらの発見は全体として、量子ネットワーク上での分散機械学習の基礎となる。
関連論文リスト
- Expressive variational quantum circuits provide inherent privacy in
federated learning [2.3255115473995134]
フェデレーション学習は、中央アグリゲータとデータを共有する必要なく、機械学習モデルをトレーニングするための実行可能なソリューションとして登場した。
標準的なニューラルネットワークベースのフェデレーション学習モデルは、サーバと共有される勾配からデータ漏洩の影響を受けやすいことが示されている。
表現的マップは、勾配反転攻撃に対する固有のプライバシーにつながることを示す。
論文 参考訳(メタデータ) (2023-09-22T17:04:50Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Interpretable Quantum Advantage in Neural Sequence Learning [2.575030923243061]
非ガウス測度を用いたガウス演算に基づくニューラルネットワーク列モデルと反復モデルとの相対表現力について検討した。
我々は、2つのモデルクラスの表現性において、無条件メモリ分離の源として量子テクスチュアリティ(quantum contextuality)を指摘する。
このようにして、我々の導入した量子モデルが、実際にさえも古典的モデルの状態を上回り得ることを実証する。
論文 参考訳(メタデータ) (2022-09-28T18:34:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Quantum Self-Supervised Learning [22.953284192004034]
対照的自己監督学習のためのハイブリッド量子古典ニューラルネットワークアーキテクチャを提案する。
ibmq_paris量子コンピュータ上の見えない画像を分類するために、最良の量子モデルを適用します。
論文 参考訳(メタデータ) (2021-03-26T18:00:00Z) - Enhancing Generative Models via Quantum Correlations [1.6099403809839032]
確率分布から抽出したサンプルを用いた生成モデリングは教師なし機械学習の強力なアプローチである。
このような量子相関が生成モデリングの強力な資源となることを理論的に示す。
この分離を標準的な機械学習データセットで数値的にテストし、実用的な問題に耐えることを示します。
論文 参考訳(メタデータ) (2021-01-20T22:57:22Z) - Generation of High-Resolution Handwritten Digits with an Ion-Trap
Quantum Computer [55.41644538483948]
本稿では, 量子回路に基づく生成モデルを構築し, 生成逆数ネットワークの事前分布を学習し, サンプル化する。
我々は、このハイブリッドアルゴリズムを171ドルのYb$+$ ion qubitsに基づいてイオントラップデバイスでトレーニングし、高品質な画像を生成する。
論文 参考訳(メタデータ) (2020-12-07T18:51:28Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。