論文の概要: Kernel Learning for Regression via Quantum Annealing Based Spectral Sampling
- arxiv url: http://arxiv.org/abs/2601.08724v1
- Date: Tue, 13 Jan 2026 16:50:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.293927
- Title: Kernel Learning for Regression via Quantum Annealing Based Spectral Sampling
- Title(参考訳): 量子アニーリングに基づくスペクトルサンプリングによる回帰のカーネル学習
- Authors: Yasushi Hasegawa, Masayuki Ohzeki,
- Abstract要約: 本稿では,マルコフ連鎖モンテカルロサンプリングの代わりにQAを統合するQA-in-the-loopカーネル学習フレームワークを提案する。
我々は,データ適応型カーネルを構築し,Nadaraya--Watson(NW)回帰を行う。
複数のベンチマーク回帰データセットの実験では、カーネルマトリックスの構造変更に伴うトレーニング損失の減少が示されている。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While quantum annealing (QA) has been developed for combinatorial optimization, practical QA devices operate at finite temperature and under noise, and their outputs can be regarded as stochastic samples close to a Gibbs--Boltzmann distribution. In this study, we propose a QA-in-the-loop kernel learning framework that integrates QA not merely as a substitute for Markov-chain Monte Carlo sampling but as a component that directly determines the learned kernel for regression. Based on Bochner's theorem, a shift-invariant kernel is represented as an expectation over a spectral distribution, and random Fourier features (RFF) approximate the kernel by sampling frequencies. We model the spectral distribution with a (multi-layer) restricted Boltzmann machine (RBM), generate discrete RBM samples using QA, and map them to continuous frequencies via a Gaussian--Bernoulli transformation. Using the resulting RFF, we construct a data-adaptive kernel and perform Nadaraya--Watson (NW) regression. Because the RFF approximation based on $\cos(\bmω^{\top}Δ\bm{x})$ can yield small negative values and cancellation across neighbors, the Nadaraya--Watson denominator $\sum_j k_{ij}$ may become close to zero. We therefore employ nonnegative squared-kernel weights $w_{ij}=k(\bm{x}_i,\bm{x}_j)^2$, which also enhances the contrast of kernel weights. The kernel parameters are trained by minimizing the leave-one-out NW mean squared error, and we additionally evaluate local linear regression with the same squared-kernel weights at inference. Experiments on multiple benchmark regression datasets demonstrate a decrease in training loss, accompanied by structural changes in the kernel matrix, and show that the learned kernel tends to improve $R^2$ and RMSE over the baseline Gaussian-kernel NW. Increasing the number of random features at inference further enhances accuracy.
- Abstract(参考訳): 組合せ最適化のために量子アニール(QA)が開発されたが、実用的なQAデバイスは有限温度で動作し、その出力はギブス-ボルツマン分布に近い確率的なサンプルと見なすことができる。
本研究では,マルコフ連鎖モンテカルロサンプリングの代わりにQAを組み込んだQA-in-the-loopカーネル学習フレームワークを提案する。
ボヒナーの定理に基づき、シフト不変核はスペクトル分布に対する期待として表され、ランダムフーリエ特徴(RFF)はサンプリング周波数によってカーネルを近似する。
我々は、(多層)制限ボルツマンマシン(RBM)を用いてスペクトル分布をモデル化し、QAを用いて個別のRBMサンプルを生成し、ガウス-ベルヌール変換を用いて連続周波数にマッピングする。
RFF は $\cos(\bmω^{\top}Δ\bm{x})$ に基づく RFF 近似によって小さな負の値と近隣でのキャンセルが得られるため、Nadaraya-Watson denominator $\sum_j k_{ij}$ は 0 に近づきうる。
したがって、非負の2乗カーネル重み $w_{ij}=k(\bm{x}_i,\bm{x}_j)^2$ を用いる。
カーネルパラメータは、残余NW平均2乗誤差を最小化することにより訓練され、同じ2乗カーネル重みを持つ局所線形回帰を推論時に評価する。
複数のベンチマーク回帰データセットの実験は、カーネルマトリックスの構造変化に伴うトレーニング損失の減少を示し、学習されたカーネルがベースラインのガウスカーネルNWよりも$R^2$とRMSEを改善する傾向があることを示した。
推論におけるランダムな特徴の数が増加すると、さらに精度が向上する。
関連論文リスト
- Quantum Fourier Transform Based Kernel for Solar Irrandiance Forecasting [0.0]
本研究では,短期時系列予測のための量子フーリエ変換(QFT)を用いた量子カーネルを提案する。
それぞれの信号はウィンドウ化され、振幅エンコードされ、QFTによって変換され、その後保護回転層を通過してQFT/QFT隣接キャンセルを回避する。
外因性予測子は、凸的に融合した特徴特異的カーネルによって組み込まれている。
論文 参考訳(メタデータ) (2025-11-21T18:36:25Z) - Universality of Kernel Random Matrices and Kernel Regression in the Quadratic Regime [11.655527064124074]
本研究では、カーネル回帰の研究を2次構造に拡張し、$n asymp d2$とする。
具体的には、元のカーネルランダム行列と二次カーネルランダム行列の差分に限定した作用素ノルム近似を確立する。
我々は、$n/d2$が非ゼロ定数に収束する二次状態におけるKRRの正確なトレーニングとテスト誤差を特徴付ける。
論文 参考訳(メタデータ) (2024-08-02T07:29:49Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - Solving High Frequency and Multi-Scale PDEs with Gaussian Processes [18.190228010565367]
PINNは、しばしば高周波およびマルチスケールのPDEを解決するのに苦労する。
我々はこの問題を解決するためにガウス過程(GP)フレームワークを利用する。
我々はKroneckerの製品特性と多線型代数を用いて計算効率とスケーラビリティを向上する。
論文 参考訳(メタデータ) (2023-11-08T05:26:58Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Quantization Algorithms for Random Fourier Features [25.356048456005023]
ランダムフーリエ特徴の方法(rff)も、ガウス核の近似として普及している。
RFFは、ランダムな投影から投影されたデータに特定の非線形変換を適用する。
本稿では,RFFの量子化アルゴリズムの開発に焦点を当てる。
論文 参考訳(メタデータ) (2021-02-25T18:51:39Z) - Optimal Rates of Distributed Regression with Imperfect Kernels [0.0]
本研究では,分散カーネルの分散化について,分割法と分割法を用いて検討する。
ノイズフリー環境では,カーネルリッジ回帰がN-1$よりも高速に実現できることを示す。
論文 参考訳(メタデータ) (2020-06-30T13:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。