論文の概要: Minmax Trend Filtering: Generalizations of Total Variation Minmax Trend Filtering: Generalizations of Total Variation Denoising via a Local Minmax/Maxmin Formula
- arxiv url: http://arxiv.org/abs/2410.03041v2
- Date: Fri, 04 Apr 2025 20:54:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:05:30.264167
- Title: Minmax Trend Filtering: Generalizations of Total Variation Minmax Trend Filtering: Generalizations of Total Variation Denoising via a Local Minmax/Maxmin Formula
- Title(参考訳): Minmax Trend Filtering: Generalizations of Total Variation Minmax Trend Filtering: Generalizations of Total Variation Denoising through a Local Minmax/Maxmin Formulas (特集:一般)
- Authors: Sabyasachi Chatterjee,
- Abstract要約: 総変分分解法 (TVD) は, 基本偏差・平滑化法である。
本稿では,2つの推定器を生成する局所的なminmax/maxmin式を新たに同定する。
そこで本研究では,TVD/MTF推定器の局所的定義により,ポイントワイド推定誤差の有界化が可能となることを示す。
- 参考スコア(独自算出の注目度): 4.07926531936425
- License:
- Abstract: Total Variation Denoising (TVD) is a fundamental denoising and smoothing method. In this article, we identify a new local minmax/maxmin formula producing two estimators which sandwich the univariate TVD estimator at every point. Operationally, this formula gives a local definition of TVD as a minmax/maxmin of a simple function of local averages. Moreover we find that this minmax/maxmin formula is generalizeable and can be used to define other TVD like estimators. In this article we propose and study higher order polynomial versions of TVD which are defined pointwise lying between minmax and maxmin optimizations of penalized local polynomial regressions over intervals of different scales. These appear to be new nonparametric regression methods, different from usual Trend Filtering and any other existing method in the nonparametric regression toolbox. We call these estimators Minmax Trend Filtering (MTF). We show how the proposed local definition of TVD/MTF estimator makes it tractable to bound pointwise estimation errors in terms of a local bias variance like trade-off. This type of local analysis of TVD/MTF is new and arguably simpler than existing analyses of TVD/Trend Filtering. In particular, apart from minimax rate optimality over bounded variation and piecewise polynomial classes, our pointwise estimation error bounds also enable us to derive local rates of convergence for (locally) Holder Smooth signals. These local rates offer a new pointwise explanation of local adaptivity of TVD/MTF instead of global (MSE) based justifications.
- Abstract(参考訳): 総変分分解法 (TVD) は, 基本偏差・平滑化法である。
本稿では,各地点で単変量TVD推定器を挟む2つの推定器を生成する局所的なminmax/maxmin式を新たに同定する。
操作的には、この公式は局所平均の単純な関数のminmax/maxminとしてTVDの局所的な定義を与える。
さらに、この minmax/maxmin の公式は一般化可能であり、推定器のような他のTVDを定義するのに使うことができる。
本稿では,異なるスケールの間隔でペナライズされた局所多項式回帰の最小値と最大値の最適化の間に位置する,TVDの高次多項式バージョンを提案し,検討する。
これらは、通常のトレンドフィルタと異なる新しい非パラメトリック回帰法であり、非パラメトリック回帰ツールボックスにある他の既存の方法とは異なるように見える。
我々はこれらの推定器を Minmax Trend Filtering (MTF) と呼ぶ。
本稿では,TVD/MTF推定器の局所的定義が,トレードオフのような局所的バイアス分散の観点から,ポイントワイズ推定誤差の有界化を可能にしていることを示す。
このタイプのTVD/MTFの局所分析は、既存のTVD/Trend Filteringの解析に比べて明らかにシンプルである。
特に、有界変動および分数次多項式類に対する極小最大速度最適性とは別に、我々の点推定誤差境界は、(局所的に)ホールダースムース信号に対する局所収束率を導出することを可能にする。
これらの局所レートは、グローバル(MSE)ベースの正当化ではなく、TVD/MTFの局所適応性に関する新たなポイントワイズな説明を提供する。
関連論文リスト
- LASER: A new method for locally adaptive nonparametric regression [5.926203312586109]
我々は, 局所適応型非パラメトリック回帰法であるtextsfLASER (Locally Adaptive Smoothing Estimator for Regression) を導入する。
我々は、その領域のすべての点において、基礎となる回帰関数の局所H"older指数に(ほぼ)最適に適応することを証明した。
論文 参考訳(メタデータ) (2024-12-27T18:59:03Z) - Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Adaptive and non-adaptive minimax rates for weighted Laplacian-eigenmap
based nonparametric regression [14.003044924094597]
重み付きラプラシアン・固有写像に基づく非パラメトリック回帰法の一群に対する適応的および非適応的収束率を示す。
論文 参考訳(メタデータ) (2023-10-31T20:25:36Z) - Online Laplace Model Selection Revisited [0.6355355626203273]
ラプラス近似のオンライン版では、ベイジアンディープラーニングコミュニティに新たな関心が寄せられている。
この研究はオンラインのLaplaceメソッドを再定義し、Laplaceのエビデンスを修正したモード上の変分境界をターゲットとしている。
これらの最適化は、UCI回帰データセットのフルバッチ勾配勾配を用いたオンラインアルゴリズムにより、大まかに達成されていることを実証する。
論文 参考訳(メタデータ) (2023-07-12T11:36:27Z) - Adaptive proximal algorithms for convex optimization under local
Lipschitz continuity of the gradient [4.478941279527423]
バックトラックライン探索は、局所リプシッツ勾配を持つ連続微分可能関数を最小化するデファクトアプローチである。
近年、凸配置では線探索を完全に避けることが可能であることが示されている。
局所滑らか度係数の新しい推定値を用いた適応的近位勾配法 adaPG を提案する。
論文 参考訳(メタデータ) (2023-01-11T12:19:28Z) - Min-Max Optimization Made Simple: Approximating the Proximal Point
Method via Contraction Maps [77.8999425439444]
本稿では,凸/凹凸 min-max 問題に対して,ほぼ最適収束率を許容する一階法を提案する。
我々の研究は、近点法の更新規則を精度良く近似できるという事実に基づいている。
論文 参考訳(メタデータ) (2023-01-10T12:18:47Z) - Scalable Gaussian-process regression and variable selection using
Vecchia approximations [3.4163060063961255]
ヴェッキアをベースとしたミニバッチサブサンプリングは、偏りのない勾配推定器を提供する。
偏りのない勾配推定器を提供するVecchiaベースのミニバッチサブサンプリングを提案する。
論文 参考訳(メタデータ) (2022-02-25T21:22:38Z) - Fast Batch Nuclear-norm Maximization and Minimization for Robust Domain
Adaptation [154.2195491708548]
ランダムに選択されたデータバッチの分類出力行列の構造について検討し,予測可能性と多様性について検討した。
本稿では,目標出力行列上で核ノルムを行い,目標予測能力を向上するBatch Nuclear-norm Maximization and Minimizationを提案する。
実験により,本手法は3つの典型的なドメイン適応シナリオにおいて適応精度とロバスト性を高めることができることが示された。
論文 参考訳(メタデータ) (2021-07-13T15:08:32Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Rao-Blackwellizing the Straight-Through Gumbel-Softmax Gradient
Estimator [93.05919133288161]
一般的なGumbel-Softmax推定器のストレートスルー変量の分散は、ラオ・ブラックウェル化により減少できることを示す。
これは平均二乗誤差を確実に減少させる。
これは分散の低減、収束の高速化、および2つの教師なし潜在変数モデルの性能向上につながることを実証的に実証した。
論文 参考訳(メタデータ) (2020-10-09T22:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。