論文の概要: Quantum Transfer Learning for Real-World, Small, and High-Dimensional
Datasets
- arxiv url: http://arxiv.org/abs/2209.07799v4
- Date: Wed, 20 Sep 2023 05:51:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 00:57:43.030429
- Title: Quantum Transfer Learning for Real-World, Small, and High-Dimensional
Datasets
- Title(参考訳): 実世界・小・高次元データセットのための量子転送学習
- Authors: Soronzonbold Otgonbaatar, Gottfried Schwarz, Mihai Datcu, and Dieter
Kranzlm\"uller
- Abstract要約: 量子機械学習(QML)ネットワークは、教師付きデータセットを分類するための計算(または量子)の優位性を約束する。
現在利用可能な量子ビット(量子ビット)は数が非常に少ないが、現実のデータセットは数百の高次元要素によって特徴づけられる。
我々は、マルチキュービットQMLネットワークとして、データ再ロードレイヤを使用せずに、実振幅および強絡N層QMLネットワークを使用する。
我々の数値結果から, 強絡N層QMLネットワークは実振幅QMLよりも局所有効次元が低いことがわかった。
- 参考スコア(独自算出の注目度): 7.136478147496171
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantum machine learning (QML) networks promise to have some computational
(or quantum) advantage for classifying supervised datasets (e.g., satellite
images) over some conventional deep learning (DL) techniques due to their
expressive power via their local effective dimension. There are, however, two
main challenges regardless of the promised quantum advantage: 1) Currently
available quantum bits (qubits) are very small in number, while real-world
datasets are characterized by hundreds of high-dimensional elements (i.e.,
features). Additionally, there is not a single unified approach for embedding
real-world high-dimensional datasets in a limited number of qubits. 2) Some
real-world datasets are too small for training intricate QML networks. Hence,
to tackle these two challenges for benchmarking and validating QML networks on
real-world, small, and high-dimensional datasets in one-go, we employ quantum
transfer learning composed of a multi-qubit QML network, and a very deep
convolutional network (a with VGG16 architecture) extracting informative
features from any small, high-dimensional dataset. We use real-amplitude and
strongly-entangling N-layer QML networks with and without data re-uploading
layers as a multi-qubit QML network, and evaluate their expressive power
quantified by using their local effective dimension; the lower the local
effective dimension of a QML network, the better its performance on unseen
data. Our numerical results show that the strongly-entangling N-layer QML
network has a lower local effective dimension than the real-amplitude QML
network and outperforms it on the hard-to-classify three-class labelling
problem. In addition, quantum transfer learning helps tackle the two challenges
mentioned above for benchmarking and validating QML networks on real-world,
small, and high-dimensional datasets.
- Abstract(参考訳): 量子機械学習(QML)ネットワークは、従来の深層学習(DL)技術よりも教師付きデータセット(衛星画像など)を局所的な有効次元を通じて表現力によって分類する際の計算的(または量子的)優位性を約束する。
しかし、約束された量子的優位性にかかわらず、主な課題は2つある。
1) 現在利用可能な量子ビット(量子ビット)は数が非常に少ないが、現実のデータセットは数百の高次元要素(すなわち特徴)によって特徴づけられる。
さらに、現実世界の高次元データセットを限られた数キュービットに埋め込むための単一の統一的なアプローチは存在しない。
2) 実世界のデータセットは複雑なQMLネットワークをトレーニングするには小さすぎる。
したがって、実世界、小規模、高次元のデータセット上でのQMLネットワークのベンチマークと検証の2つの課題に取り組むために、我々は、マルチキュービットQMLネットワークと非常に深い畳み込みネットワーク(VGG16アーキテクチャを含む)からなる量子トランスファー学習を用いて、どんな小さな高次元のデータセットからも情報的特徴を抽出する。
我々は,マルチキュービットQMLネットワークとして,データ再ロード層を伴わない実振幅および強絡N層QMLネットワークを用い,その局所有効次元を用いてその表現力を評価する。
数値計算の結果, 強絡N層QMLネットワークは実振幅QMLネットワークよりも局所的な有効次元が低く, 分類が難しい3クラスラベリング問題よりも優れていることがわかった。
さらに、量子転送学習は、実世界、小規模、高次元のデータセット上でのQMLネットワークのベンチマークと検証の2つの課題に取り組むのに役立つ。
関連論文リスト
- Optimizing Quantum Convolutional Neural Network Architectures for Arbitrary Data Dimension [2.9396076967931526]
量子畳み込みニューラルネットワーク(QCNN)は量子機械学習において有望なアプローチである。
量子リソースの割り当てを最適化しながら任意の入力データ次元を処理できるQCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-28T02:25:12Z) - Splitting and Parallelizing of Quantum Convolutional Neural Networks for
Learning Translationally Symmetric Data [0.0]
分割並列化QCNN(sp-QCNN)と呼ばれる新しいアーキテクチャを提案する。
量子回路を翻訳対称性に基づいて分割することにより、sp-QCNNはキュービット数を増やすことなく従来のQCNNを実質的に並列化することができる。
本稿では,sp-QCNNが従来のQCNNと同等の分類精度を達成でき,必要な測定資源を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-06-12T18:00:08Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Reflection Equivariant Quantum Neural Networks for Enhanced Image
Classification [0.7232471205719458]
我々は、データに固有の対称性を明示的に尊重する新しい機械学習モデル、いわゆる幾何量子機械学習(GQML)を構築した。
これらのネットワークは、複雑な実世界の画像データセットに対する一般的なアンサーゼを一貫して、そして著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-01T04:10:26Z) - DeepQMLP: A Scalable Quantum-Classical Hybrid DeepNeural Network
Architecture for Classification [6.891238879512672]
量子機械学習(QML)は、従来の機械学習(ML)タスクの潜在的なスピードアップと改善を約束している。
本稿では、古典的なディープニューラルネットワークアーキテクチャにインスパイアされたスケーラブルな量子古典ハイブリッドニューラルネットワーク(DeepQMLP)アーキテクチャを提案する。
DeepQMLPは、ノイズ下での推論において、最大25.3%の損失と7.92%の精度を提供する。
論文 参考訳(メタデータ) (2022-02-02T15:29:46Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Entangled Datasets for Quantum Machine Learning [0.0]
代わりに量子状態からなる量子データセットを使うべきだと我々は主張する。
NTangledデータセットの状態を生成するために量子ニューラルネットワークをどのように訓練するかを示す。
また、拡張性があり、量子回路によって準備された状態で構成される、別の絡み合いベースのデータセットについても検討する。
論文 参考訳(メタデータ) (2021-09-08T02:20:13Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。