論文の概要: fastkqr: A Fast Algorithm for Kernel Quantile Regression
- arxiv url: http://arxiv.org/abs/2408.05393v1
- Date: Sat, 10 Aug 2024 00:18:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 19:11:07.118416
- Title: fastkqr: A Fast Algorithm for Kernel Quantile Regression
- Title(参考訳): fastkqr: カーネル量子回帰の高速アルゴリズム
- Authors: Qian Tang, Yuwen Gu, Boxiang Wang,
- Abstract要約: 我々は、再生されたカーネルヒルベルト空間における量子レグレッションの計算を大幅に改善するfastkqrを導入する。
fastkqrのコアは、近似よりも正確に回帰量子を魔法のように生成する有限な平滑化アルゴリズムである。
さらに、Fastkqrを拡張して、データ駆動の交差ペナルティで柔軟なカーネル量子化レグレッションを実現する。
- 参考スコア(独自算出の注目度): 6.850636409964172
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Quantile regression is a powerful tool for robust and heterogeneous learning that has seen applications in a diverse range of applied areas. However, its broader application is often hindered by the substantial computational demands arising from the non-smooth quantile loss function. In this paper, we introduce a novel algorithm named fastkqr, which significantly advances the computation of quantile regression in reproducing kernel Hilbert spaces. The core of fastkqr is a finite smoothing algorithm that magically produces exact regression quantiles, rather than approximations. To further accelerate the algorithm, we equip fastkqr with a novel spectral technique that carefully reutilizes matrix computations. In addition, we extend fastkqr to accommodate a flexible kernel quantile regression with a data-driven crossing penalty, addressing the interpretability challenges of crossing quantile curves at multiple levels. We have implemented fastkqr in a publicly available R package. Extensive simulations and real applications show that fastkqr matches the accuracy of state-of-the-art algorithms but can operate up to an order of magnitude faster.
- Abstract(参考訳): 量子回帰は、多種多様な応用分野の応用を見てきた堅牢で異質な学習のための強力なツールである。
しかし、その広範な応用は、非滑らかな量子的損失関数から生じる相当な計算要求によってしばしば妨げられる。
本稿では、再生されたカーネルヒルベルト空間における量子レグレッションの計算を大幅に向上させる、fastkqrという新しいアルゴリズムを提案する。
fastkqrのコアは、近似よりも正確に回帰量子を魔法のように生成する有限な平滑化アルゴリズムである。
アルゴリズムをさらに高速化するために,我々は,行列計算を慎重に再利用する新しいスペクトル手法でfastkqrを装備する。
さらに、データ駆動の交差ペナルティにより、フレキシブルなカーネル量子化レグレッションに対応するためにfastkqrを拡張し、複数のレベルで量子化曲線を渡る際の解釈可能性の問題に対処する。
我々は公開Rパッケージにfastkqrを実装した。
大規模なシミュレーションと実応用により、fastkqrは最先端のアルゴリズムの精度と一致するが、最大で桁違いに高速に動作可能であることが示される。
関連論文リスト
- A Pathwise Coordinate Descent Algorithm for LASSO Penalized Quantile Regression [0.6445605125467572]
我々は,高次元データに対する正確なペナル化量子レグレッション推定を計算するために,高速でパスワイズな座標降下アルゴリズムを開発した。
本アルゴリズムは, 近似CDと線形プログラムに基づいて, 既存の代替手段よりも大幅に高速に動作する。
論文 参考訳(メタデータ) (2025-02-17T22:57:41Z) - Optimal multicore quantum computing with few interconnects [0.0]
本研究では,複数のコアに分散したランダム回路のパラダイム的普遍系列の複雑性挙動について検討する。
最適複雑性は相互接続がほとんどない状態で達成される。
また、同じサイズのコアを追加することで、プロセッサをスケールアップする際の複雑性特性も分析します。
論文 参考訳(メタデータ) (2025-01-17T15:23:54Z) - Adaptive Sampled Softmax with Inverted Multi-Index: Methods, Theory and Applications [79.53938312089308]
MIDX-Samplerは、逆多重インデックスアプローチに基づく新しい適応型サンプリング戦略である。
本手法は, サンプリングバイアス, 勾配バイアス, 収束速度, 一般化誤差境界などの重要な問題に対処するため, 厳密な理論的解析によって裏付けられている。
論文 参考訳(メタデータ) (2025-01-15T04:09:21Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Quantum speedup of leverage score sampling and its application [0.0]
本稿では,レバレッジスコアの計算を高速化する量子アルゴリズムを提案する。
応用として,ベクトル解出力を用いた剛性回帰問題に対する新しい量子アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-15T14:40:18Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Faster One-Sample Stochastic Conditional Gradient Method for Composite
Convex Minimization [61.26619639722804]
滑らかで非滑らかな項の和として形成される凸有限サム目標を最小化するための条件勾配法(CGM)を提案する。
提案手法は, 平均勾配 (SAG) 推定器を備え, 1回に1回のサンプルしか必要としないが, より高度な分散低減技術と同等の高速収束速度を保証できる。
論文 参考訳(メタデータ) (2022-02-26T19:10:48Z) - Exponential Error Convergence in Data Classification with Optimized
Random Features: Acceleration by Quantum Machine Learning [8.98526174345299]
量子コンピュータによる機械学習のためのアルゴリズム、量子機械学習(QML)は、最適化されたランダムな特徴のサンプリングを指数関数的に高速化することができる。
ここでは、最適化されたランダムな特徴によって加速される分類タスクのためのQMLアルゴリズムを構築する。
最適化されたランダムな特徴量に対するQMLアルゴリズムと勾配降下(SGD)を組み合わせることで、最先端の指数収束速度を達成できることを実証する。
論文 参考訳(メタデータ) (2021-06-16T18:00:00Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Quantum-Inspired Classical Algorithm for Principal Component Regression [1.9105479266011323]
本研究では,データ点数に対して時間的多元対数で動作する主成分回帰のアルゴリズムを開発する。
この指数的なスピードアップは、より大きなデータセットにおける潜在的な応用を可能にする。
論文 参考訳(メタデータ) (2020-10-16T20:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。