論文の概要: Trainable Quantum Neural Network for Multiclass Image Classification with the Power of Pre-trained Tree Tensor Networks
- arxiv url: http://arxiv.org/abs/2504.14995v1
- Date: Mon, 21 Apr 2025 09:51:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 16:42:36.695705
- Title: Trainable Quantum Neural Network for Multiclass Image Classification with the Power of Pre-trained Tree Tensor Networks
- Title(参考訳): プレトレーニングツリーテンソルネットワークを用いたマルチクラス画像分類のためのトレーニング可能な量子ニューラルネットワーク
- Authors: Keisuke Murota, Takumi Kobori,
- Abstract要約: ツリーテンソルネットワーク(TTN)は、画像分類のための強力なモデルを提供する。
TTNを量子ニューラルネットワーク(QNN)に埋め込むことは、量子リソースを活用することでパフォーマンスをさらに向上させる可能性がある。
複数の小結合次元TTNを集約するフォレストテンソルネットワーク(FTN)分類器を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree tensor networks (TTNs) offer powerful models for image classification. While these TTN image classifiers already show excellent performance on classical hardware, embedding them into quantum neural networks (QNNs) may further improve the performance by leveraging quantum resources. However, embedding TTN classifiers into QNNs for multiclass classification remains challenging. Key obstacles are the highorder gate operations required for large bond dimensions and the mid-circuit postselection with exponentially low success rates necessary for the exact embedding. In this work, to address these challenges, we propose forest tensor network (FTN)-classifiers, which aggregate multiple small-bond-dimension TTNs. This allows us to handle multiclass classification without requiring large gates in the embedded circuits. We then remove the overhead of mid-circuit postselection by extending the adiabatic encoding framework to our setting and smoothly encode the FTN-classifiers into a quantum forest tensor network (qFTN)- classifiers. Numerical experiments on MNIST and CIFAR-10 demonstrate that we can successfully train FTN-classifiers and encode them into qFTN-classifiers, while maintaining or even improving the performance of the pre-trained FTN-classifiers. These results suggest that synergy between TTN classification models and QNNs can provide a robust and scalable framework for multiclass quantum-enhanced image classification.
- Abstract(参考訳): ツリーテンソルネットワーク(TTN)は、画像分類のための強力なモデルを提供する。
これらのTTN画像分類器は、すでに古典的ハードウェアで優れた性能を示しているが、量子ニューラルネットワーク(QNN)に組み込むことで、量子リソースを活用することでパフォーマンスをさらに向上させることができる。
しかし、マルチクラス分類のためのQNNにTTN分類器を組み込むことは依然として困難である。
鍵となる障害は、大きな結合次元に必要な高次ゲート操作と、正確な埋め込みに必要な指数的に低い成功率の中間回路のポストセレクションである。
本研究では、これらの課題に対処するために、複数の小結合次元TTNを集約するフォレストテンソルネットワーク(FTN)分類器を提案する。
これにより、組込み回路で大きなゲートを必要とすることなく、マルチクラス分類を処理できる。
次に、このアディベート符号化フレームワークを我々の設定に拡張し、FTN-分類器を量子フォレストテンソルネットワーク(qFTN)-分類器にスムーズにエンコードすることで、中間回路のポストセレクションのオーバーヘッドを除去する。
MNIST と CIFAR-10 の数値実験により,FTN 分類器の訓練に成功し,それを qFTN 分類器にエンコードし,事前訓練した FTN 分類器の性能を維持・改善することを示した。
これらの結果から,TTN分類モデルとQNNの相乗効果は,マルチクラス量子強調画像分類のための堅牢でスケーラブルなフレームワークを提供する可能性が示唆された。
関連論文リスト
- Adiabatic Encoding of Pre-trained MPS Classifiers into Quantum Circuits [0.0]
本稿では,事前学習したMPS分類器をポストセレクション付き量子MPS回路に符号化し,性能を維持しながら徐々にポストセレクションを除去するフレームワークを提案する。
我々は、ある人工データセット上で、qMPS分類器をスクラッチから訓練することは、不規則な高原のために指数関数的に難しいことを証明しているが、我々の断熱符号化はこの問題を回避している。
論文 参考訳(メタデータ) (2025-04-12T15:12:46Z) - Multi-Class Quantum Convolutional Neural Networks [2.6422127672474933]
古典データのマルチクラス分類のための量子畳み込みニューラルネットワーク(QCNN)を提案する。
QCNNは4, 6, 8, 10クラスのMNISTデータセットでテストされている。
論文 参考訳(メタデータ) (2024-04-19T09:36:48Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - On Circuit-based Hybrid Quantum Neural Networks for Remote Sensing
Imagery Classification [88.31717434938338]
ハイブリッドQCNNは、標準ニューラルネットワーク内に量子層を導入することで、CNNの古典的なアーキテクチャを豊かにする。
この研究で提案された新しいQCNNは、地球観測(EO)のユースケースとして選択された土地利用・土地被覆(LULC)分類に適用される。
マルチクラス分類の結果は,QCNNの性能が従来の性能よりも高いことを示すことによって,提案手法の有効性を証明した。
論文 参考訳(メタデータ) (2021-09-20T12:41:50Z) - Hybrid quantum-classical classifier based on tensor network and
variational quantum circuit [0.0]
本稿では、量子インスパイアされたテンソルネットワーク(TN)と変分量子回路(VQC)を組み合わせて教師付き学習タスクを行うハイブリッドモデルを提案する。
低結合次元の行列積状態に基づくTNは、MNISTデータセットのバイナリ分類において、VQCの入力のためのデータを圧縮する特徴抽出器としてPCAよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T09:43:59Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Quantum-Classical Machine learning by Hybrid Tensor Networks [14.851178989158976]
本研究では,テンソルネットワークと古典ニューラルネットワークを組み合わせた量子古典ハイブリッドネットワーク(HTN)を提案する。
量子分類や量子オートエンコーダなど,HTNの応用の可能性を示す。
論文 参考訳(メタデータ) (2020-05-15T10:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。