論文の概要: Quantum kernel and HHL-based support vector machines for multi-class classification
- arxiv url: http://arxiv.org/abs/2509.10190v1
- Date: Fri, 12 Sep 2025 12:29:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.083061
- Title: Quantum kernel and HHL-based support vector machines for multi-class classification
- Title(参考訳): マルチクラス分類のための量子カーネルとHHLベースのサポートベクターマシン
- Authors: Gabriela Pinheiro, Donovan Slabbert, Luis Kowada, Francesco Petruccione,
- Abstract要約: マルチクラス分類にベクトルマシンをサポートする2つの量子アプローチを比較した。
量子カーネルベースのQSVMとHarrow-Hassidim-Lloyd最小二乗SVMについて検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare two quantum approaches that use support vector machines for multi-class classification on a reduced Sloan Digital Sky Survey (SDSS) dataset: the quantum kernel-based QSVM and the Harrow-Hassidim-Lloyd least-squares SVM (HHL LS-SVM). Both one-vs-rest and two-step hierarchical classification schemes were implemented. The QSVM involves angle encoding of ten features, two unitary operator blocks consisting of rotational operator gates, and a projective measurement that projects the final state to the zero state. The HHL-based method involves solving a system of linear equations using the HHL algorithm and using the solution in a support vector machine approach. The results indicate that the QSVM outperforms HHL LS-SVM in most cases. HHL LS-SVM performs somewhat competitively in selected cases, particularly when isolating galaxies (majority), however, it also performs poorly in others, especially when isolating QSOs (minority). Comparisons with classical SVMs confirm that quantum and classical methods achieve broadly similar performance, with classical models performing slightly ahead overall. Scaling analysis reveals a trade-off: QSVM performance suffers from quadratic scaling with the number of samples and features, but benefits from explicit feature representation during training, while HHL LS-SVM scales essentially constantly, with moderate fluctuations, but suffers from limited representative elements. The HHL-based method is also highly noise-sensitive. These results suggest that QSVM performs better overall and will perform better on current hardware as well, but that the more efficient scaling of HHL LS-SVM makes it a useful option for larger datasets with many samples, especially if we move past the NISQ era.
- Abstract(参考訳): 量子カーネルベースのQSVMとHarrow-Hassidim-Lloyd最小二乗SVM(HHL LS-SVM)の2つの量子アプローチを比較した。
1-vs-rest と 2-step の階層分類スキームが実装された。
QSVMは、10つの特徴の角度符号化、回転作用素ゲートからなる2つのユニタリ作用素ブロック、最終状態をゼロ状態に投影する射影測定を含む。
HHL法はHHLアルゴリズムを用いて線形方程式の系を解き、その解を支持ベクトルマシンアプローチで解く。
その結果,ほとんどの場合,QSVMはHHL LS-SVMより優れていた。
HHL LS-SVMは、選択された場合、特に銀河を孤立させる場合(巨視性)、他の場合、特にQSOを孤立させる場合(マイノリティ)、やや競合的に作用する。
古典的SVMとの比較では、量子的手法と古典的手法が概ね類似した性能を達成し、古典的モデルは全体的にわずかに先行している。
QSVMのパフォーマンスは、サンプル数と機能数で2次スケーリングに悩まされるが、トレーニング中の明示的な特徴表現の恩恵を受ける一方、HHL LS-SVMは基本的に、緩やかな変動を伴うが、限られた代表要素に悩まされる。
HHLに基づく手法もノイズに敏感である。
これらの結果は、QSVMは全体的なパフォーマンスが向上し、現在のハードウェアでもパフォーマンスが向上することを示しているが、HHL LS-SVMのより効率的なスケーリングにより、多くのサンプルを持つ大規模データセット、特にNISQ時代を過ぎても、有用な選択肢となることを示唆している。
関連論文リスト
- Probabilistic Quantum SVM Training on Ising Machine [2.44505480142099]
我々はコヒーレントイジングマシン(CIM)に適した確率論的量子SVMトレーニングフレームワークを提案する。
我々はバッチ処理とマルチバッチアンサンブル戦略を採用し、小規模の量子デバイスがより大きなデータセット上でSVMをトレーニングできるようにする。
本手法は,バイナリおよびマルチクラスデータセットのシミュレーションおよび実機実験により検証する。
論文 参考訳(メタデータ) (2025-03-20T17:20:26Z) - Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - SliM-LLM: Salience-Driven Mixed-Precision Quantization for Large Language Models [63.118592279833656]
後学習量子化(PTQ)は,大規模言語モデル(LLM)の圧縮に有効な手法である
本稿では,SliM-LLMを提案する。SliM-LLMは,グループ単位でビット幅を割り当てるサリエンス駆動の混合精度量子化フレームワークである。
実験により、SliM-LLMは低ビット幅の様々なLLMにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-23T16:21:48Z) - Local Binary and Multiclass SVMs Trained on a Quantum Annealer [0.8399688944263844]
近年,動作量子アンニールの出現に伴い,量子トレーニングと古典的実行を特徴とするハイブリッドSVMモデルが導入されている。
これらのモデルは、古典的なモデルに匹敵する性能を示した。
しかし、現在の量子アニールの接続が制限されているため、トレーニングセットサイズに制限がある。
論文 参考訳(メタデータ) (2024-03-13T14:37:00Z) - Unifying (Quantum) Statistical and Parametrized (Quantum) Algorithms [65.268245109828]
我々はカーンズのSQオラクルとヴァリアントの弱い評価オラクルからインスピレーションを得ます。
評価クエリから学習するための非条件の下限を出力する,広範かつ直感的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T18:23:21Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - Handling Imbalanced Classification Problems With Support Vector Machines
via Evolutionary Bilevel Optimization [73.17488635491262]
サポートベクトルマシン(SVM)は、バイナリ分類問題に対処する一般的な学習アルゴリズムである。
この記事では、EBCS-SVMについて紹介する。
論文 参考訳(メタデータ) (2022-04-21T16:08:44Z) - Solving Linear Systems on Quantum Hardware with Hybrid HHL++ [1.9311784849535176]
HHL (Harrow-Hassidim-Lloyd) は、臨界量子線型代数プリミティブである。
線形系行列のスケーリング係数を決定するための新しいアルゴリズムを提案する。
量子システムモデルH系列のトラップイオン量子コンピュータ上で、修正されたハイブリッドHHLを動作させることにより、我々の作業の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-29T17:59:29Z) - Quantum Approximate Optimization Algorithm Based Maximum Likelihood
Detection [80.28858481461418]
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
量子技術の最近の進歩は、ノイズの多い中間スケール量子(NISQ)デバイスへの道を開く。
論文 参考訳(メタデータ) (2021-07-11T10:56:24Z) - Practical application improvement to Quantum SVM: theory to practice [0.9449650062296824]
量子特徴写像を用いて、データを量子状態に変換し、これらの量子状態からSVMカーネルを構築する。
実験では,データセットの複雑さに関わらず,QSVMがSVMに対して等しく動作することを示す。
論文 参考訳(メタデータ) (2020-12-14T17:19:17Z) - A quantum extension of SVM-perf for training nonlinear SVMs in almost
linear time [0.2855485723554975]
特徴空間学習のための非線形サポートベクトルマシン(SVM)を訓練するための量子アルゴリズムを提案する。
Joachimsの古典的なSVM-perfアルゴリズムに基づいて、我々のアルゴリズムはトレーニング例の数で線形にスケールするランニングタイムを持つ。
論文 参考訳(メタデータ) (2020-06-18T06:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。