論文の概要: LASER: A new method for locally adaptive nonparametric regression
- arxiv url: http://arxiv.org/abs/2412.19802v1
- Date: Fri, 27 Dec 2024 18:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:16.816684
- Title: LASER: A new method for locally adaptive nonparametric regression
- Title(参考訳): LASER:局所適応型非パラメトリック回帰法
- Authors: Sabyasachi Chatterjee, Subhajit Goswami, Soumendu Sundar Mukherjee,
- Abstract要約: 我々は, 局所適応型非パラメトリック回帰法であるtextsfLASER (Locally Adaptive Smoothing Estimator for Regression) を導入する。
我々は、その領域のすべての点において、基礎となる回帰関数の局所H"older指数に(ほぼ)最適に適応することを証明した。
- 参考スコア(独自算出の注目度): 5.926203312586109
- License:
- Abstract: In this article, we introduce \textsf{LASER} (Locally Adaptive Smoothing Estimator for Regression), a computationally efficient locally adaptive nonparametric regression method that performs variable bandwidth local polynomial regression. We prove that it adapts (near-)optimally to the local H\"{o}lder exponent of the underlying regression function \texttt{simultaneously} at all points in its domain. Furthermore, we show that there is a single ideal choice of a global tuning parameter under which the above mentioned local adaptivity holds. Despite the vast literature on nonparametric regression, instances of practicable methods with provable guarantees of such a strong notion of local adaptivity are rare. The proposed method achieves excellent performance across a broad range of numerical experiments in comparison to popular alternative locally adaptive methods.
- Abstract(参考訳): 本稿では,変数帯域幅の局所多項式回帰を行う局所適応型非パラメトリック回帰法であるtextsf{LASER} (Locally Adaptive Smoothing Estimator for Regression)を紹介する。
我々は、その領域のすべての点において、下層の回帰関数 \texttt{simultanely} の局所 H\"{o}lder 指数に(ほぼ)最適に適応していることを証明する。
さらに、上述の局所適応度が持つ大域的チューニングパラメータの理想的な選択が1つ存在することを示す。
非パラメトリック回帰に関する膨大な文献にもかかわらず、そのような強い局所適応性の概念を証明可能な保証を持つ実践可能な方法の例は稀である。
提案手法は,一般的な局所適応手法と比較して,幅広い数値実験において優れた性能を発揮する。
関連論文リスト
- GeneralizeFormer: Layer-Adaptive Model Generation across Test-Time Distribution Shifts [58.95913531746308]
テスト時間領域の一般化の問題は、モデルが複数のソースドメインで訓練され、トレーニング中に見たことのないターゲットドメインで調整される場合である。
textitGeneralizeFormer と呼ばれる軽量メタ学習変換器を用いて,推論中に複数の層パラメータを生成することを提案する。
論文 参考訳(メタデータ) (2025-02-15T10:10:49Z) - Robust Local Polynomial Regression with Similarity Kernels [0.0]
局所多項式回帰(Local Polynomial Regression, LPR)は、複雑な関係をモデル化するための非パラメトリックな手法である。
データの局所化部分集合に低度重みを付け、近接して重み付けすることで回帰関数を推定する。
従来のLPRは外れ値や高平均点に敏感であり、推定精度に大きな影響を及ぼす可能性がある。
本稿では,予測変数と応答変数の両方を重み付け機構に組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-18T11:21:26Z) - Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - Minmax Trend Filtering: A Locally Adaptive Nonparametric Regression Method via Pointwise Min Max Optimization [4.07926531936425]
文学における局所的な適応性の定義について、全会一致で合意されていないようである。
まず, パーナライズされた局所平均のmin-max/max-min最適化の観点から, ファセットラッソ推定器の新しい点式を導出する。
次に、ペナル化局所回帰の min-max/max-min 最適化の観点から、ポイントワイズで定義されるFused Lasso の高次バージョンを提案する。
論文 参考訳(メタデータ) (2024-10-03T23:15:35Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Efficient Federated Learning via Local Adaptive Amended Optimizer with
Linear Speedup [90.26270347459915]
そこで我々は,グローバル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アルゴリズムを提案する。
textitLADAは通信ラウンドを大幅に削減し、複数のベースラインよりも高い精度を実現する。
論文 参考訳(メタデータ) (2023-07-30T14:53:21Z) - Benign overfitting and adaptive nonparametric regression [71.70323672531606]
本研究では,データポイントを高い確率で補間する連続関数である推定器を構築する。
我々は未知の滑らかさに適応してH"古いクラスのスケールにおいて平均2乗リスクの下で最小値の最適速度を得る。
論文 参考訳(メタデータ) (2022-06-27T14:50:14Z) - Communication-Efficient Distributed Quantile Regression with Optimal
Statistical Guarantees [2.064612766965483]
本稿では,分散量子レグレッションにおいて,厳密なスケーリング条件を伴わずに最適な推論を実現する方法の課題に対処する。
この問題は、ローカル(各データソース)とグローバルな目的関数に適用される二重平滑化アプローチによって解決される。
局所的および大域的滑らか化パラメータの微妙な組み合わせに依存するにもかかわらず、量子回帰モデルは完全にパラメトリックである。
論文 参考訳(メタデータ) (2021-10-25T17:09:59Z) - AI-SARAH: Adaptive and Implicit Stochastic Recursive Gradient Methods [7.486132958737807]
適応性に対する暗黙的アプローチによる適応分散低減手法を提案する。
有限サム最小化問題に対する収束保証を提供し,局所幾何が許せばサラよりも高速に収束できることを示す。
このアルゴリズムはステップサイズを暗黙的に計算し、関数の局所リプシッツ滑らかさを効率的に推定する。
論文 参考訳(メタデータ) (2021-02-19T01:17:15Z) - Support estimation in high-dimensional heteroscedastic mean regression [2.07180164747172]
ランダムな設計と、潜在的にヘテロセダスティックで重み付きエラーを伴う線形平均回帰モデルを考える。
我々は,問題のパラメータに依存するチューニングパラメータを備えた,厳密な凸・滑らかなHuber損失関数の変種を用いる。
得られた推定器に対して、$ell_infty$ノルムにおける符号一貫性と最適収束率を示す。
論文 参考訳(メタデータ) (2020-11-03T09:46:31Z) - On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization [80.03647903934723]
我々は、勾配収束法を期待する適応勾配法を証明した。
解析では、非理解勾配境界の最適化において、より適応的な勾配法に光を当てた。
論文 参考訳(メタデータ) (2018-08-16T20:25:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。