論文の概要: Adiabatic Quantum Feature Selection for Sparse Linear Regression
- arxiv url: http://arxiv.org/abs/2106.02357v1
- Date: Fri, 4 Jun 2021 09:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 15:14:31.636040
- Title: Adiabatic Quantum Feature Selection for Sparse Linear Regression
- Title(参考訳): Sparse Linear RegressionのためのAdiabatic Quantum Feature Selection
- Authors: Surya Sai Teja Desu, P.K. Srijith, M.V. Panduranga Rao, Naveen
Sivadasan
- Abstract要約: 合成および実世界のデータセット上でQUBOソリューションの品質を定式化し比較する。
その結果, 最適解を求める上で, 提案した断熱量子コンピューティング手法の有効性が示された。
- 参考スコア(独自算出の注目度): 0.17499351967216337
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Linear regression is a popular machine learning approach to learn and predict
real valued outputs or dependent variables from independent variables or
features. In many real world problems, its beneficial to perform sparse linear
regression to identify important features helpful in predicting the dependent
variable. It not only helps in getting interpretable results but also avoids
overfitting when the number of features is large, and the amount of data is
small. The most natural way to achieve this is by using `best subset selection'
which penalizes non-zero model parameters by adding $\ell_0$ norm over
parameters to the least squares loss. However, this makes the objective
function non-convex and intractable even for a small number of features. This
paper aims to address the intractability of sparse linear regression with
$\ell_0$ norm using adiabatic quantum computing, a quantum computing paradigm
that is particularly useful for solving optimization problems faster. We
formulate the $\ell_0$ optimization problem as a Quadratic Unconstrained Binary
Optimization (QUBO) problem and solve it using the D-Wave adiabatic quantum
computer. We study and compare the quality of QUBO solution on synthetic and
real world datasets. The results demonstrate the effectiveness of the proposed
adiabatic quantum computing approach in finding the optimal solution. The QUBO
solution matches the optimal solution for a wide range of sparsity penalty
values across the datasets.
- Abstract(参考訳): 線形回帰は、独立した変数や特徴から実際の値付き出力や依存変数を学習し、予測するための一般的な機械学習アプローチである。
多くの実世界の問題において、依存変数を予測するのに役立つ重要な特徴を特定するために、疎線形回帰を実行することは有益である。
解釈可能な結果を得るのに役立つだけでなく、機能の数が大きければオーバーフィッティングを回避し、データの量も少なくなる。
これを実現する最も自然な方法は、最小二乗損失にパラメータ上の$\ell_0$ノルムを追加することで、ゼロでないモデルパラメータをペナルティ化する 'best subset selection' を使用することである。
しかし、これは目的関数が非凸であり、少数の機能であっても難解である。
本稿では,量子コンピューティングのパラダイムである adiabatic quantum computing を用いて,分散線形回帰を $\ell_0$ norm で解くことの難しさに対処し,最適化問題を高速に解く上で特に有用である。
擬似非拘束バイナリ最適化(QUBO)問題として$\ell_0$の最適化問題を定式化し、D波断熱量子コンピュータを用いて解く。
合成および実世界のデータセット上でQUBOソリューションの品質を比較し,比較する。
その結果,提案する断熱量子コンピューティング手法が最適解の探索に有効であることが示された。
QUBOソリューションは、データセット全体にわたる広い範囲のペナルティ値に対する最適なソリューションと一致します。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Adaptive Learning for Quantum Linear Regression [10.445957451908695]
最近の研究で、線形回帰は二次二進最適化問題として定式化された。
このアプローチは、大規模なデータセットに対する計算時間のアドバンテージを約束する。
しかし、解の質は精度ベクトルの必要利用によって制限される。
本研究では,精度ベクター符号化の改良に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-05T21:09:01Z) - Stochastic Optimization Algorithms for Instrumental Variable Regression with Streaming Data [17.657917523817243]
この問題を条件付き最適化問題とみなして,器用変分回帰のためのアルゴリズムを開発し,解析する。
最小二乗変数回帰の文脈では、我々のアルゴリズムは行列逆転やミニバッチを必要としない。
任意の$iota>0$に対して$mathcalO(log T/T)$と$mathcalO(1/T1-iota)$の順の収束率を導出する。
論文 参考訳(メタデータ) (2024-05-29T19:21:55Z) - BO4IO: A Bayesian optimization approach to inverse optimization with uncertainty quantification [5.031974232392534]
この研究はデータ駆動逆最適化(IO)に対処する。
目的は最適化モデルにおける未知のパラメータを、最適あるいは準最適と仮定できる観測された決定から推定することである。
論文 参考訳(メタデータ) (2024-05-28T06:52:17Z) - Optimal Bias-Correction and Valid Inference in High-Dimensional Ridge Regression: A Closed-Form Solution [0.0]
寸法$p$がサンプルサイズ$n$より小さい場合、バイアスを効果的に補正するための反復戦略を導入する。
p>n$の場合、提案した非バイアス推定器の残余バイアスが到達不能であるようなバイアスを最適に緩和する。
本手法は,様々な分野にわたるリッジ回帰推論におけるバイアス問題に対する変換解を提供する。
論文 参考訳(メタデータ) (2024-05-01T10:05:19Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Stochastic Inexact Augmented Lagrangian Method for Nonconvex Expectation
Constrained Optimization [88.0031283949404]
多くの実世界の問題は複雑な非機能的制約を持ち、多くのデータポイントを使用する。
提案手法は,従来最もよく知られた結果で既存手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-19T14:48:54Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Linear Regression by Quantum Amplitude Estimation and its Extension to
Convex Optimization [0.0]
線形回帰のための新しい量子アルゴリズムを提案し,その複雑性は$O(epsilon-1)$であり,データ点数に対する対数依存性は$N_D$である。
この方法では,データ点の和の形で計算のボトルネックを克服し,その複雑性を$N_D$に比例する。
論文 参考訳(メタデータ) (2021-05-28T00:04:11Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。