論文の概要: Linear Regression Using Quantum Annealing with Continuous Variables
- arxiv url: http://arxiv.org/abs/2410.08569v1
- Date: Fri, 11 Oct 2024 06:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 23:04:57.381814
- Title: Linear Regression Using Quantum Annealing with Continuous Variables
- Title(参考訳): 連続変数を用いた量子アニーリングによる線形回帰
- Authors: Asuka Koura, Takashi Imoto, Katsuki Ura, Yuichiro Matsuzaki,
- Abstract要約: ボソン系は離散近似に頼らずに線形回帰の最適化を容易にする。
我々の新しいアプローチの大きな利点は、断熱条件が満たされる限り、キュービット数を増やすことなく精度を確保することができることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear regression is a data analysis technique, which is categorized as supervised learning. By utilizing known data, we can predict unknown data. Recently, researchers have explored the use of quantum annealing (QA) to perform linear regression where parameters are approximated to discrete values using binary numbers. However, this approach has a limitation: we need to increase the number of qubits to improve the accuracy. Here, we propose a novel linear regression method using QA that leverages continuous variables. In particular, the boson system facilitates the optimization of linear regression without resorting to discrete approximations, as it directly manages continuous variables while engaging in QA. The major benefit of our new approach is that it can ensure accuracy without increasing the number of qubits as long as the adiabatic condition is satisfied.
- Abstract(参考訳): 線形回帰はデータ解析手法であり、教師あり学習に分類される。
既知のデータを利用することで、未知のデータを予測することができる。
近年、量子アニール(QA)を用いて線形回帰を行い、パラメータを二進数を用いて離散値に近似する手法が研究されている。
しかし、このアプローチには限界があり、精度を向上させるためにキュービットの数を増やす必要がある。
本稿では,連続変数を利用した線形回帰手法を提案する。
特に、ボソン系は、離散近似に頼らずに線形回帰の最適化を容易にする。
我々の新しいアプローチの大きな利点は、断熱条件が満たされる限り、キュービット数を増やすことなく精度を確保することができることである。
関連論文リスト
- Adaptive Learning for Quantum Linear Regression [10.445957451908695]
最近の研究で、線形回帰は二次二進最適化問題として定式化された。
このアプローチは、大規模なデータセットに対する計算時間のアドバンテージを約束する。
しかし、解の質は精度ベクトルの必要利用によって制限される。
本研究では,精度ベクター符号化の改良に焦点をあてる。
論文 参考訳(メタデータ) (2024-08-05T21:09:01Z) - LFFR: Logistic Function For (single-output) Regression [0.0]
完全同型暗号方式で暗号化されたデータを用いたプライバシー保護型回帰トレーニングを実装した。
我々は,ロジスティック関数を用いたホモモルフィック回帰のための新しい,効率的なアルゴリズムLFFRを開発した。
論文 参考訳(メタデータ) (2024-07-13T17:33:49Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Anchor Data Augmentation [53.39044919864444]
非線形過パラメータ回帰におけるデータ拡張のための新しいアルゴリズムを提案する。
我々のデータ拡張アルゴリズムは、因果関係に関する文献から借用し、最近提案されたデータ拡張のためのアンカー回帰(AR)法を拡張した。
論文 参考訳(メタデータ) (2023-11-12T21:08:43Z) - Streaming Sparse Linear Regression [1.8707139489039097]
本稿では,データポイントが逐次到着したときのストリーミングデータを解析する新しいオンライン疎線形回帰フレームワークを提案する。
提案手法はメモリ効率が高く,厳密な制約付き凸性仮定を必要とする。
論文 参考訳(メタデータ) (2022-11-11T07:31:55Z) - Decoupling Shrinkage and Selection for the Bayesian Quantile Regression [0.0]
本稿では,ベイジアン量子回帰(BQR)に対する連続前処理における縮小と疎結合の概念を拡張した。
第1段階では、連続した先行状態の状態での量子的回帰を縮小し、第2段階では適応ラッソの効率的な変種によって後方を分散させる。
我々の手続きは、変数がマクロ経済に下方リスクをもたらす政策立案者とのコミュニケーションに利用できる。
論文 参考訳(メタデータ) (2021-07-18T17:22:33Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z) - A spectral algorithm for robust regression with subgaussian rates [0.0]
本研究では, 試料の分布に強い仮定がない場合の線形回帰に対する2次時間に対する新しい線形アルゴリズムについて検討する。
目的は、データが有限モーメントしか持たなくても最適な準ガウス誤差を達成できる手順を設計することである。
論文 参考訳(メタデータ) (2020-07-12T19:33:50Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。