論文の概要: Near-optimal delta-convex estimation of Lipschitz functions
- arxiv url: http://arxiv.org/abs/2511.15615v1
- Date: Wed, 19 Nov 2025 17:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.909725
- Title: Near-optimal delta-convex estimation of Lipschitz functions
- Title(参考訳): リプシッツ関数の近最適デルタ凸推定
- Authors: Gábor Balázs,
- Abstract要約: 本稿では,雑音観測から未知のリプシッツ関数を推定するためのトラクタブルアルゴリズムを提案する。
フレームワークは、形状制限された回帰に適応するのも簡単です。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a tractable algorithm for estimating an unknown Lipschitz function from noisy observations and establishes an upper bound on its convergence rate. The approach extends max-affine methods from convex shape-restricted regression to the more general Lipschitz setting. A key component is a nonlinear feature expansion that maps max-affine functions into a subclass of delta-convex functions, which act as universal approximators of Lipschitz functions while preserving their Lipschitz constants. Leveraging this property, the estimator attains the minimax convergence rate (up to logarithmic factors) with respect to the intrinsic dimension of the data under squared loss and subgaussian distributions in the random design setting. The algorithm integrates adaptive partitioning to capture intrinsic dimension, a penalty-based regularization mechanism that removes the need to know the true Lipschitz constant, and a two-stage optimization procedure combining a convex initialization with local refinement. The framework is also straightforward to adapt to convex shape-restricted regression. Experiments demonstrate competitive performance relative to other theoretically justified methods, including nearest-neighbor and kernel-based regressors.
- Abstract(参考訳): 本稿では、雑音観測から未知のリプシッツ関数を推定し、その収束率の上限を確立するためのトラクタブルアルゴリズムを提案する。
このアプローチは、凸形状制限回帰からより一般的なリプシッツ設定まで、最大アフィン法を拡張している。
鍵となる成分は、最大アフィン函数をデルタ凸函数のサブクラスにマッピングする非線形特徴拡張であり、リプシッツ定数を保ちながらリプシッツ函数の普遍近似として作用する。
この特性を利用すると、推定子は、ランダムな設計環境での正方形損失と部分ガウス分布の下でのデータの内在次元に対して、最小収束率(対数係数まで)を達成する。
このアルゴリズムは、固有次元を捉えるために適応的パーティショニングと、真のリプシッツ定数を知る必要をなくすペナルティベースの正規化機構と、凸初期化と局所精製を組み合わせた2段階最適化手順を統合する。
このフレームワークは、凸形状制限レグレッションに適応するのも簡単です。
実験は、最も近い隣人やカーネルベースの回帰器を含む、理論上正当化された他の方法と比較して、競争性能を示す。
関連論文リスト
- Revisiting Convergence: Shuffling Complexity Beyond Lipschitz Smoothness [50.78508362183774]
シャッフル型勾配法はその単純さと迅速な経験的性能のために実践的に好まれる。
リプシッツ条件は一般的な機械学習スキームでは満たされないことが多い。
論文 参考訳(メタデータ) (2025-07-11T15:36:48Z) - Stochastic Zeroth-Order Optimization under Strongly Convexity and Lipschitz Hessian: Minimax Sample Complexity [59.75300530380427]
本稿では,アルゴリズムが検索対象関数の雑音評価にのみアクセス可能な2次スムーズかつ強い凸関数を最適化する問題を考察する。
本研究は, ミニマックス単純後悔率について, 一致した上界と下界を発達させることにより, 初めて厳密な評価を行ったものである。
論文 参考訳(メタデータ) (2024-06-28T02:56:22Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Convergence rate of the (1+1)-evolution strategy on locally strongly convex functions with lipschitz continuous gradient [10.31411804947731]
進化戦略 (ES) はブラックボックス連続最適化のためのアルゴリズムの有望なクラスの一つである。
本研究では,局所$L$-強凸関数上の (1+1)-ES の線型収束率の上界と下界を$U$-Lipschitz連続勾配で導出した。
論文 参考訳(メタデータ) (2022-09-26T07:16:50Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Relative Lipschitzness in Extragradient Methods and a Direct Recipe for
Acceleration [30.369542816161378]
我々は,滑らかな凸関数の1次最小化のために,標準的な指数関数法(ミラープロキシと双対外挿法)が最適加速率を回復することを示した。
我々はこの枠組みを一般化し、相対的なリプシッツネスの局所的およびランダムな概念を扱う。
論文 参考訳(メタデータ) (2020-11-12T18:43:40Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z) - Exactly Computing the Local Lipschitz Constant of ReLU Networks [98.43114280459271]
ニューラルネットワークの局所リプシッツ定数は、堅牢性、一般化、公正性評価に有用な指標である。
ReLUネットワークのリプシッツ定数を推定するために, 強い不適合性を示す。
このアルゴリズムを用いて、競合するリプシッツ推定器の密度と正規化トレーニングがリプシッツ定数に与える影響を評価する。
論文 参考訳(メタデータ) (2020-03-02T22:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。