論文の概要: Minmax Trend Filtering: A Locally Adaptive Nonparametric Regression Method via Pointwise Min Max Optimization
- arxiv url: http://arxiv.org/abs/2410.03041v1
- Date: Thu, 3 Oct 2024 23:15:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 04:16:10.897010
- Title: Minmax Trend Filtering: A Locally Adaptive Nonparametric Regression Method via Pointwise Min Max Optimization
- Title(参考訳): Minmax Trend Filtering: Pointwise Min Max Optimizationによる局所適応型非パラメトリック回帰法
- Authors: Sabyasachi Chatterjee,
- Abstract要約: 文学における局所的な適応性の定義について、全会一致で合意されていないようである。
まず, パーナライズされた局所平均のmin-max/max-min最適化の観点から, ファセットラッソ推定器の新しい点式を導出する。
次に、ペナル化局所回帰の min-max/max-min 最適化の観点から、ポイントワイズで定義されるFused Lasso の高次バージョンを提案する。
- 参考スコア(独自算出の注目度): 4.07926531936425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trend Filtering is a nonparametric regression method which exhibits local adaptivity, in contrast to a host of classical linear smoothing methods. However, there seems to be no unanimously agreed upon definition of local adaptivity in the literature. A question we seek to answer here is how exactly is Fused Lasso or Total Variation Denoising, which is Trend Filtering of order $0$, locally adaptive? To answer this question, we first derive a new pointwise formula for the Fused Lasso estimator in terms of min-max/max-min optimization of penalized local averages. This pointwise representation appears to be new and gives a concrete explanation of the local adaptivity of Fused Lasso. It yields that the estimation error of Fused Lasso at any given point is bounded by the best (local) bias variance tradeoff where bias and variance have a slightly different meaning than usual. We then propose higher order polynomial versions of Fused Lasso which are defined pointwise in terms of min-max/max-min optimization of penalized local polynomial regressions. These appear to be new nonparametric regression methods, different from any existing method in the nonparametric regression toolbox. We call these estimators Minmax Trend Filtering. They continue to enjoy the notion of local adaptivity in the sense that their estimation error at any given point is bounded by the best (local) bias variance tradeoff.
- Abstract(参考訳): トレンドフィルタは局所的な適応性を示す非パラメトリック回帰法であり、古典的な線形滑らか化手法のホストとは対照的である。
しかし、文献における局所適応性の定義については一致していないようである。
ここで答えたい疑問は、Fused Lasso あるいは Total Variation Denoising は、どのようにして局所的に適応する、オーダー 0$ のトレンドフィルタなのか、ということです。
この質問に答えるために、我々はまず、ペナル化局所平均の min-max/max-min 最適化の観点から、Fused Lasso 推定器の新しい点式を導出する。
この点の表現は新しいようで、フセド・ラッソの局所的な適応性について具体的な説明を与える。
任意の点における融合ラッソの推定誤差は、バイアスと分散が通常とわずかに異なる意味を持つ最良の(局所的な)バイアス分散トレードオフによって制限される。
次に、ペナル化局所多項式回帰の min-max/max-min 最適化の観点から、ポイントワイズで定義されるFused Lasso の高次多項式バージョンを提案する。
これらは新しい非パラメトリック回帰法であり、非パラメトリック回帰ツールボックスの既存の方法とは異なる。
この推定器をMinmax Trend Filteringと呼ぶ。
彼らは、任意の点における推定誤差が最良の(局所的な)バイアス分散トレードオフによって境界づけられているという意味で、局所適応性の概念を楽しみ続けている。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Adaptive and non-adaptive minimax rates for weighted Laplacian-eigenmap
based nonparametric regression [14.003044924094597]
重み付きラプラシアン・固有写像に基づく非パラメトリック回帰法の一群に対する適応的および非適応的収束率を示す。
論文 参考訳(メタデータ) (2023-10-31T20:25:36Z) - Online Laplace Model Selection Revisited [0.6355355626203273]
ラプラス近似のオンライン版では、ベイジアンディープラーニングコミュニティに新たな関心が寄せられている。
この研究はオンラインのLaplaceメソッドを再定義し、Laplaceのエビデンスを修正したモード上の変分境界をターゲットとしている。
これらの最適化は、UCI回帰データセットのフルバッチ勾配勾配を用いたオンラインアルゴリズムにより、大まかに達成されていることを実証する。
論文 参考訳(メタデータ) (2023-07-12T11:36:27Z) - Adaptive proximal algorithms for convex optimization under local
Lipschitz continuity of the gradient [4.478941279527423]
バックトラックライン探索は、局所リプシッツ勾配を持つ連続微分可能関数を最小化するデファクトアプローチである。
近年、凸配置では線探索を完全に避けることが可能であることが示されている。
局所滑らか度係数の新しい推定値を用いた適応的近位勾配法 adaPG を提案する。
論文 参考訳(メタデータ) (2023-01-11T12:19:28Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Scalable Gaussian-process regression and variable selection using
Vecchia approximations [3.4163060063961255]
ヴェッキアをベースとしたミニバッチサブサンプリングは、偏りのない勾配推定器を提供する。
偏りのない勾配推定器を提供するVecchiaベースのミニバッチサブサンプリングを提案する。
論文 参考訳(メタデータ) (2022-02-25T21:22:38Z) - Fast Batch Nuclear-norm Maximization and Minimization for Robust Domain
Adaptation [154.2195491708548]
ランダムに選択されたデータバッチの分類出力行列の構造について検討し,予測可能性と多様性について検討した。
本稿では,目標出力行列上で核ノルムを行い,目標予測能力を向上するBatch Nuclear-norm Maximization and Minimizationを提案する。
実験により,本手法は3つの典型的なドメイン適応シナリオにおいて適応精度とロバスト性を高めることができることが示された。
論文 参考訳(メタデータ) (2021-07-13T15:08:32Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。