論文の概要: Quantum Multiple Kernel Learning
- arxiv url: http://arxiv.org/abs/2011.09694v1
- Date: Thu, 19 Nov 2020 07:19:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:55:04.820706
- Title: Quantum Multiple Kernel Learning
- Title(参考訳): 量子多重カーネル学習
- Authors: Seyed Shakib Vedaie, Moslem Noori, Jaspreet S. Oberoi, Barry C.
Sanders, Ehsan Zahedinejad
- Abstract要約: カーネルメソッドは、その概念的単純さと優れたパフォーマンスのために、機械学習アプリケーションにおいて重要な役割を果たす。
カーネルマシンの表現性を高める1つのアプローチは、複数の個々のカーネルを組み合わせることである。
複数の量子カーネルを組み合わせた量子MKLを提案する。
- 参考スコア(独自算出の注目度): 1.9116668545881028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel methods play an important role in machine learning applications due to
their conceptual simplicity and superior performance on numerous machine
learning tasks. Expressivity of a machine learning model, referring to the
ability of the model to approximate complex functions, has a significant
influence on its performance in these tasks. One approach to enhancing the
expressivity of kernel machines is to combine multiple individual kernels to
arrive at a more expressive combined kernel. This approach is referred to as
multiple kernel learning (MKL). In this work, we propose an MKL method we refer
to as quantum MKL, which combines multiple quantum kernels. Our method
leverages the power of deterministic quantum computing with one qubit (DQC1) to
estimate the combined kernel for a set of classically intractable individual
quantum kernels. The combined kernel estimation is achieved without explicitly
computing each individual kernel, while still allowing for the tuning of
individual kernels in order to achieve better expressivity. Our simulations on
two binary classification problems---one performed on a synthetic dataset and
the other on a German credit dataset---demonstrate the superiority of the
quantum MKL method over single quantum kernel machines.
- Abstract(参考訳): カーネルメソッドは、概念的な単純さと多くの機械学習タスクでの優れたパフォーマンスのために、機械学習アプリケーションにおいて重要な役割を果たす。
複雑な関数を近似するモデルの能力を参照する機械学習モデルの表現性は、これらのタスクにおけるその性能に大きな影響を与える。
カーネルマシンの表現性を高める一つのアプローチは、複数のカーネルを結合してより表現力のある複合カーネルに到達することである。
このアプローチをMKL(Multiple kernel Learning)と呼ぶ。
本研究では,複数の量子カーネルを組み合わせた量子MKL法を提案する。
本手法は,1量子ビット(dqc1)を持つ決定論的量子計算のパワーを利用して,古典的に難解な量子カーネルの集合に対する結合カーネルを推定する。
組み合わせたカーネル推定は個々のカーネルを明示的に計算することなく達成されるが、より優れた表現性を達成するために個々のカーネルのチューニングが可能である。
2つの二進分類問題(合成データセットとドイツのクレジットデータセット)のシミュレーションを行い、量子mkl法が単一量子カーネルマシンよりも優れていることを証明した。
関連論文リスト
- Neural auto-designer for enhanced quantum kernels [59.616404192966016]
本稿では,問題固有の量子特徴写像の設計を自動化するデータ駆動型手法を提案する。
私たちの研究は、量子機械学習の進歩におけるディープラーニングの実質的な役割を強調します。
論文 参考訳(メタデータ) (2024-01-20T03:11:59Z) - Quantum Kernel Machine Learning With Continuous Variables [0.0]
人気の高いqubitフレームワークは、量子カーネル機械学習に関する最近の研究を支配している。
連続変数(CV)量子コンピューティングプラットフォームに対するこれらの概念を理解するための比較フレームワークは存在しない。
論文 参考訳(メタデータ) (2024-01-11T03:49:40Z) - A Unified Framework for Trace-induced Quantum Kernels [0.0]
量子カーネル法は、特定の機械学習タスクに対して実用的な量子優位性を達成するための有望な候補である。
この研究では、すべてのトレース誘起量子カーネルを共通のフレームワークに結合する。
局所的に投影されたカーネルに基づくモデルが,グローバルな忠実度量子カーネルに匹敵する性能を達成できることを数値的に示す。
論文 参考訳(メタデータ) (2023-11-22T17:50:00Z) - Quantum-Classical Multiple Kernel Learning [0.0]
機械学習におけるカーネルメソッドは、将来的にそのような改善を実現することができる分野のひとつだ。
小さくてノイズの多い量子コンピュータは、データの類似性のユニークな概念を捉える古典的なパラメトリック量子カーネルを評価することができる。
我々は、MKL(Multiple kernel)の文脈において、古典、量子量子、量子古典およびQCカーネルのペアワイズ組み合わせを考える。
本手法は,MKL設定における各種測定値の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-05-28T12:29:04Z) - Multiple Kernel Clustering with Dual Noise Minimization [56.009011016367744]
マルチカーネルクラスタリング(MKC)は、ベースカーネルから補完的な情報を統合することでデータをグループ化する。
本稿では,双対雑音を厳密に定義し,パラメータフリーなMKCアルゴリズムを提案する。
二重ノイズはブロック対角構造を汚染し,クラスタリング性能の劣化を招き,CノイズはNノイズよりも強い破壊を示す。
論文 参考訳(メタデータ) (2022-07-13T08:37:42Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Importance of Kernel Bandwidth in Quantum Machine Learning [3.528111249547925]
量子カーネルの帯域幅を最適化することで,ランダムな推定から古典的手法との競合まで,カーネル手法の性能が向上することを示す。
我々は負の結果を再現し、複数の量子カーネルと古典的データセットを用いた広範な数値実験により、カーネルの帯域幅が最適化された場合、代わりに量子ビット数の増加により性能が向上することを示す。
論文 参考訳(メタデータ) (2021-11-09T23:23:23Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Covariant quantum kernels for data with group structure [1.51714450051254]
グループ構造を持つデータに使用できる量子カーネルのクラスを紹介する。
本手法を,グループにおける多くの本質的な学習課題の構造を具現化したコセット空間上の学習問題に適用する。
論文 参考訳(メタデータ) (2021-05-07T17:38:58Z) - SimpleMKKM: Simple Multiple Kernel K-means [49.500663154085586]
単純なマルチカーネルk-means(SimpleMKKM)と呼ばれる,単純で効果的なマルチカーネルクラスタリングアルゴリズムを提案する。
我々の基準は、カーネル係数とクラスタリング分割行列における難解な最小化最大化問題によって与えられる。
クラスタリング一般化誤差の観点から,SimpleMKKMの性能を理論的に解析する。
論文 参考訳(メタデータ) (2020-05-11T10:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。