論文の概要: Disentangling Quantum and Classical Contributions in Hybrid Quantum
Machine Learning Architectures
- arxiv url: http://arxiv.org/abs/2311.05559v2
- Date: Sat, 13 Jan 2024 11:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 21:36:02.416642
- Title: Disentangling Quantum and Classical Contributions in Hybrid Quantum
Machine Learning Architectures
- Title(参考訳): ハイブリッド量子機械学習アーキテクチャにおける量子と古典的貢献の相違
- Authors: Michael K\"olle, Jonas Maurer, Philipp Altmann, Leo S\"unkel, Jonas
Stein, Claudia Linnhoff-Popien
- Abstract要約: ハイブリッドトランスファー学習ソリューションが開発され、訓練済みの古典モデルと量子回路を融合した。
それぞれのコンポーネント(古典的、量子的)がモデルの結果にどの程度貢献するかは、まだ不明である。
本稿では,プレトレーニングされたネットワークを圧縮に利用する代わりに,オートエンコーダを用いて,圧縮したデータから圧縮したデータを導出するハイブリッドアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 4.646930308096446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum computing offers the potential for superior computational
capabilities, particularly for data-intensive tasks. However, the current state
of quantum hardware puts heavy restrictions on input size. To address this,
hybrid transfer learning solutions have been developed, merging pre-trained
classical models, capable of handling extensive inputs, with variational
quantum circuits. Yet, it remains unclear how much each component -- classical
and quantum -- contributes to the model's results. We propose a novel hybrid
architecture: instead of utilizing a pre-trained network for compression, we
employ an autoencoder to derive a compressed version of the input data. This
compressed data is then channeled through the encoder part of the autoencoder
to the quantum component. We assess our model's classification capabilities
against two state-of-the-art hybrid transfer learning architectures, two purely
classical architectures and one quantum architecture. Their accuracy is
compared across four datasets: Banknote Authentication, Breast Cancer
Wisconsin, MNIST digits, and AudioMNIST. Our research suggests that classical
components significantly influence classification in hybrid transfer learning,
a contribution often mistakenly ascribed to the quantum element. The
performance of our model aligns with that of a variational quantum circuit
using amplitude embedding, positioning it as a feasible alternative.
- Abstract(参考訳): 量子コンピューティングは優れた計算能力、特にデータ集約的なタスクの可能性を秘めている。
しかし、量子ハードウェアの現状は、入力サイズに厳しい制限を与えている。
これに対処するために、雑多な入力を扱うことができる事前学習された古典モデルと変分量子回路を融合したハイブリッド転送学習ソリューションが開発されている。
しかし、各コンポーネント -- 古典的および量子的 -- がモデルの結果にどの程度貢献しているかは、いまだに不明である。
本稿では,プレトレーニングされたネットワークを圧縮に利用する代わりに,オートエンコーダを用いて,圧縮したデータから圧縮したデータを導出するハイブリッドアーキテクチャを提案する。
この圧縮されたデータは、オートエンコーダのエンコーダ部から量子成分にチャネルされる。
2つの最先端ハイブリッド転送学習アーキテクチャ、2つの純粋古典的アーキテクチャ、1つの量子アーキテクチャに対して、モデルの分類能力を評価する。
その精度は、バンクノート認証、乳がんウィスコンシン、MNIST桁、オーディオMNISTの4つのデータセットで比較される。
我々の研究は、古典的成分がハイブリッドトランスファーラーニングにおける分類に大きな影響を与えることを示唆している。
我々のモデルの性能は振幅埋め込みを用いた変分量子回路の性能と一致し、実現可能な代替品として位置づける。
関連論文リスト
- Quantum Convolutional Neural Network: A Hybrid Quantum-Classical Approach for Iris Dataset Classification [0.0]
本稿では,4量子ビット量子回路と古典的ニューラルネットワークを組み合わせた,分類タスクのためのハイブリッド量子古典型機械学習モデルを提案する。
このモデルは20エポック以上で訓練され、16エポックに設定されたIrisデータセットテストで100%の精度を達成した。
この研究は、ハイブリッド量子古典モデルの研究の活発化と、実際のデータセットへの適用性に寄与する。
論文 参考訳(メタデータ) (2024-10-21T13:15:12Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Quantum Transfer Learning for MNIST Classification Using a Hybrid Quantum-Classical Approach [0.0]
本研究は、画像分類タスクにおける量子コンピューティングと古典的機械学習の統合について検討する。
両パラダイムの強みを生かしたハイブリッド量子古典的アプローチを提案する。
実験結果から、ハイブリッドモデルが量子コンピューティングと古典的手法を統合する可能性を示す一方で、量子結果に基づいて訓練された最終モデルの精度は、圧縮された特徴に基づいて訓練された古典的モデルよりも低いことが示唆された。
論文 参考訳(メタデータ) (2024-08-05T22:16:27Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Re-QGAN: an optimized adversarial quantum circuit learning framework [0.0]
生成モデルの枠組みとして実ヒルベルト空間を用いる量子生成逆ネットワーク設計を提案する。
ステレオ投影法により古典情報をエンコードし,正規化手順を使わずに古典的領域全体を利用できるようにする。
このアーキテクチャは、浅い深さの量子回路を維持しながら、最先端の量子生成対向性能を向上させる。
論文 参考訳(メタデータ) (2022-08-03T15:52:27Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - QuClassi: A Hybrid Deep Neural Network Architecture based on Quantum
State Fidelity [13.152233840194473]
本稿では,量子ニューラルネットワークQuClassiを提案する。
量子微分関数とハイブリッド量子古典設計により、QuClassiはデータを量子ビットでエンコードし、量子回路を生成し、最良の状態のために量子プラットフォームにプッシュする。
論文 参考訳(メタデータ) (2021-03-21T05:28:37Z) - Hybrid quantum-classical classifier based on tensor network and
variational quantum circuit [0.0]
本稿では、量子インスパイアされたテンソルネットワーク(TN)と変分量子回路(VQC)を組み合わせて教師付き学習タスクを行うハイブリッドモデルを提案する。
低結合次元の行列積状態に基づくTNは、MNISTデータセットのバイナリ分類において、VQCの入力のためのデータを圧縮する特徴抽出器としてPCAよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T09:43:59Z) - Quantum Deformed Neural Networks [83.71196337378022]
我々は,量子コンピュータ上で効率的に動作するように設計された新しい量子ニューラルネットワーク層を開発した。
入力状態の絡み合いに制限された場合、古典的なコンピュータでシミュレートすることができる。
論文 参考訳(メタデータ) (2020-10-21T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。