論文の概要: Training quantum machine learning models on cloud without uploading the data
- arxiv url: http://arxiv.org/abs/2409.04602v2
- Date: Mon, 7 Oct 2024 20:19:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 22:49:49.477691
- Title: Training quantum machine learning models on cloud without uploading the data
- Title(参考訳): データをアップロードせずにクラウド上で量子機械学習モデルを訓練する
- Authors: Guang Ping He,
- Abstract要約: 本稿では,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、量子クラウドプラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効果的に符号化することも可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Based on the linearity of quantum unitary operations, we propose a method that runs the parameterized quantum circuits before encoding the input data. This enables a dataset owner to train machine learning models on quantum cloud computation platforms, without the risk of leaking the information about the data. It is also capable of encoding a vast amount of data effectively at a later time using classical computations, thus saving runtime on quantum computation devices. The trained quantum machine learning models can be run completely on classical computers, meaning the dataset owner does not need to have any quantum hardware, nor even quantum simulators. Moreover, our method mitigates the encoding bottleneck by reducing the required circuit depth from $O(2^{n})$ to $O(n)$, and relax the tolerance on the precision of the quantum gates for the encoding. These results demonstrate yet another advantage of quantum and quantum-inspired machine learning models over existing classical neural networks, and broaden the approaches to data security.
- Abstract(参考訳): 量子ユニタリ演算の線形性に基づいて,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、データに関する情報をリークするリスクなく、量子クラウド計算プラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効率的にエンコードすることができ、量子計算デバイス上でのランタイムを節約できる。
トレーニングされた量子機械学習モデルは、古典的なコンピュータで完全に実行できるため、データセットの所有者は量子ハードウェアや量子シミュレータさえも必要としない。
さらに,回路深度を$O(2^{n})$から$O(n)$に減らして符号化ボトルネックを緩和し,符号化のための量子ゲートの精度に対する耐性を緩和する。
これらの結果は、既存の古典的ニューラルネットワークよりも量子と量子にインスパイアされた機械学習モデルのもう1つの利点を示し、データセキュリティへのアプローチを広げている。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Classification of the Fashion-MNIST Dataset on a Quantum Computer [0.0]
古典的なデータを量子コンピュータに符号化する従来の方法は、コストがかかりすぎて、現在のハードウェアで実現可能な実験の規模が制限される。
現在利用可能な量子コンピュータのネイティブゲートセットとトポロジに適合する回路を用いて、符号化されたデータを作成する改良された変分アルゴリズムを提案する。
我々は、現在の量子コンピュータibmq-kolkata上で、符号化データセットに基づいて訓練された単純な量子変分分類器をデプロイし、適度な精度を達成する。
論文 参考訳(メタデータ) (2024-03-04T19:01:14Z) - Quantum Machine Learning: from physics to software engineering [58.720142291102135]
古典的な機械学習アプローチが量子コンピュータの設備改善にどのように役立つかを示す。
量子アルゴリズムと量子コンピュータは、古典的な機械学習タスクを解くのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-04T23:37:45Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum neural networks [0.0]
この論文は、過去数十年で最もエキサイティングな研究分野である量子コンピューティングと機械学習を組み合わせたものだ。
本稿では、汎用量子計算が可能で、トレーニング中にメモリ要求の少ない散逸型量子ニューラルネットワーク(DQNN)を紹介する。
論文 参考訳(メタデータ) (2022-05-17T07:47:00Z) - Generative Quantum Machine Learning [0.0]
この論文の目的は、新しい生成量子機械学習アルゴリズムを開発することである。
本稿では,パラメータ化量子回路で実現可能な量子生成逆数ネットワークと量子ボルツマンマシンの実装を紹介する。
論文 参考訳(メタデータ) (2021-11-24T19:00:21Z) - Comparing concepts of quantum and classical neural network models for
image classification task [0.456877715768796]
本資料は、ハイブリッド量子古典ニューラルネットワークのトレーニングと性能に関する実験結果を含む。
シミュレーションは時間を要するが、量子ネットワークは時間を要するが、古典的なネットワークを克服する。
論文 参考訳(メタデータ) (2021-08-19T18:49:30Z) - Large-scale quantum machine learning [0.0]
ランダム化計測を用いて量子カーネルを計測し、2次高速化を行い、大規模データセットを高速に処理する。
我々は高次元データを回路深度と線形にスケーリングする特徴数で量子コンピュータに効率的にエンコードする。
現在利用可能な量子コンピュータを使用して、MNISTデータベースは10年ではなく220時間以内に処理できる。
論文 参考訳(メタデータ) (2021-08-02T17:00:18Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。