論文の概要: Towards Ultimate Accuracy in Quantum Multi-Class Classification: A Trace-Distance Binary Tree AdaBoost Classifier
- arxiv url: http://arxiv.org/abs/2602.02120v1
- Date: Mon, 02 Feb 2026 14:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.188203
- Title: Towards Ultimate Accuracy in Quantum Multi-Class Classification: A Trace-Distance Binary Tree AdaBoost Classifier
- Title(参考訳): 量子多クラス分類における究極的精度を目指して:トレース距離二分木AdaBoost分類器
- Authors: Xin Wang, Yabo Wang, Rebing Wu,
- Abstract要約: TTA(Trace-Distance binary Tree AdaBoost)は、量子多クラス分類のための実用的なパイプラインである。
私たちの結果は実証的で、短期的なプラットフォーム上で実装可能です。
- 参考スコア(独自算出の注目度): 4.356215674442852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Trace-distance binary Tree AdaBoost (TTA) multi-class quantum classifier, a practical pipeline for quantum multi-class classification that combines quantum-aware reductions with ensemble learning to improve trainability and resource efficiency. TTA builds a hierarchical binary tree by choosing, at each internal node, the bipartition that maximizes the trace distance between average quantum states; each node trains a binary AdaBoost ensemble of shallow variational quantum base learners. By confining intrinsically hard, small trace distance distinctions to small node-specific datasets and combining weak shallow learners via AdaBoost, TTA distributes capacity across many small submodels rather than one deep circuit, mitigating barren-plateau and optimization failures without sacrificing generalization. Empirically TTA achieves top test accuracy ($\approx $100\%) among quantum and classical baselines, is robust to common quantum errors, and realizes aggregate systems with 10000 cumulative layers and 0.2M parameters, implemented as many shallow circuits. Our results are empirical and implementable on near-term platforms, providing a resource-efficient route to scalable multi-class quantum machine learning.
- Abstract(参考訳): 本稿では,TTA(Trace-distance binary Tree AdaBoost)マルチクラス量子分類器を提案する。
TTAは、各内部ノードにおいて、平均量子状態間のトレース距離を最大化する二分法を選択して階層的な二分木を構築し、各ノードは浅い変動量子ベース学習者の二分法AdaBoostアンサンブルを訓練する。
内在的にハードで小さなトレース距離を小さなノード固有のデータセットに分解し、AdaBoostを介して弱い浅層学習者を結合することにより、TTAは1つの深い回路ではなく多くの小さなサブモデルにキャパシティを分散し、バレンプレートを緩和し、一般化を犠牲にすることなく最適化の失敗を緩和する。
経験的に、TTAは、量子ベースラインと古典ベースラインの間で最高テスト精度($100\%)を達成し、一般的な量子エラーに対して堅牢であり、多くの浅い回路として実装された10000の累積層と0.2Mパラメータを持つ集約システムを実現する。
我々の結果は、短期的なプラットフォーム上で実証的かつ実装可能であり、スケーラブルなマルチクラス量子機械学習へのリソース効率の高い経路を提供する。
関連論文リスト
- An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Single-Qudit Quantum Neural Networks for Multiclass Classification [0.0]
本稿では,マルチクラス分類のための単一量子ニューラルネットワークを提案する。
我々の設計では$d$次元のユニタリ演算子を使用し、$d$はクラスの数に対応する。
我々は,MNISTデータセットとEMNISTデータセットを用いたモデルの評価を行い,競合精度を実証した。
論文 参考訳(メタデータ) (2025-03-12T11:12:05Z) - Training Hybrid Deep Quantum Neural Network for Efficient Reinforcement Learning [3.753031740069576]
量子回路は、次元が指数関数的に増加するヒルベルト空間にデータを埋め込む。
量子回路を局所的に近似する有接サロゲートqtDNNを導入する。
我々は、連続制御強化学習のためのハイブリッドディープ量子ニューラルネットワークhDQNN-TD3を設計する。
論文 参考訳(メタデータ) (2025-03-12T07:12:02Z) - Training Multi-Layer Binary Neural Networks With Local Binary Error Signals [3.7740044597960316]
多層2層ニューラルネットワーク(BNN)のための完全二分法および勾配自由学習アルゴリズムを提案する。
提案アルゴリズムは局所的な二分誤差信号と二分重更新に依存しており、シナプス的メタ可塑性機構として機能する整数値の隠蔽重みを用いる。
実験の結果、既存の完全バイナリ単一層状態のソリューションに比べて、テスト精度は最大で+35.47%向上した。
論文 参考訳(メタデータ) (2024-11-28T09:12:04Z) - A Quantum-Classical Collaborative Training Architecture Based on Quantum
State Fidelity [50.387179833629254]
我々は,コ・テンク (co-TenQu) と呼ばれる古典量子アーキテクチャを導入する。
Co-TenQuは古典的なディープニューラルネットワークを41.72%まで向上させる。
他の量子ベースの手法よりも1.9倍も優れており、70.59%少ない量子ビットを使用しながら、同様の精度を達成している。
論文 参考訳(メタデータ) (2024-02-23T14:09:41Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。