論文の概要: Piecewise Linear Regression via a Difference of Convex Functions
- arxiv url: http://arxiv.org/abs/2007.02422v3
- Date: Fri, 13 Nov 2020 21:01:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 07:55:02.539674
- Title: Piecewise Linear Regression via a Difference of Convex Functions
- Title(参考訳): 凸関数の差による区分線形回帰
- Authors: Ali Siahkamari, Aditya Gangrade, Brian Kulis and Venkatesh Saligrama
- Abstract要約: 本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
- 参考スコア(独自算出の注目度): 50.89452535187813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new piecewise linear regression methodology that utilizes
fitting a difference of convex functions (DC functions) to the data. These are
functions $f$ that may be represented as the difference $\phi_1 - \phi_2$ for a
choice of convex functions $\phi_1, \phi_2$. The method proceeds by estimating
piecewise-liner convex functions, in a manner similar to max-affine regression,
whose difference approximates the data. The choice of the function is
regularised by a new seminorm over the class of DC functions that controls the
$\ell_\infty$ Lipschitz constant of the estimate. The resulting methodology can
be efficiently implemented via Quadratic programming even in high dimensions,
and is shown to have close to minimax statistical risk. We empirically validate
the method, showing it to be practically implementable, and to have comparable
performance to existing regression/classification methods on real-world
datasets.
- Abstract(参考訳): 本稿では,データに凸関数(dc関数)の差を適合させる新しい線形回帰手法を提案する。
これらは、凸関数 $\phi_1, \phi_2$ の選択に対して $\phi_1 - \phi_2$ の違いとして表される関数$f$ である。
この方法は、データの差が近似する最大アフィン回帰と似た方法で、片方向の凸関数を推定することで進行する。
関数の選択は、推定の$\ell_\infty$ Lipschitz定数を制御するDC関数のクラスに対する新しい半ノルムによって正規化される。
得られた手法は、高次元でも擬似プログラミングによって効率的に実装することができ、最小限の統計リスクに近いことが示されている。
この手法を実証的に検証し,実際に実装可能であることを示し,実世界のデータセット上で既存の回帰/分類法に匹敵する性能を示す。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Nonsmooth Nonparametric Regression via Fractional Laplacian Eigenmaps [15.738019181349992]
真の回帰関数が必ずしも滑らかでない場合に、非パラメトリック回帰法を開発する。
より具体的には、我々のアプローチは分数ラプラシアンを使い、真の回帰関数が次数$sin (0,1)$のソボレフ空間にある場合を扱うように設計されている。
論文 参考訳(メタデータ) (2024-02-22T21:47:29Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Globally Convergent Accelerated Algorithms for Multilinear Sparse
Logistic Regression with $\ell_0$-constraints [2.323238724742687]
多重線形ロジスティック回帰は多次元データ解析の強力なツールである。
本稿では,$ell_0$-MLSRを解くために,アクセラレーションされた近位置換最小値MLSRモデルを提案する。
また、APALM$+$が一階臨界点に大域収束し、クルディ・ロジャシエヴィチ性質を用いて収束を確立することも示している。
論文 参考訳(メタデータ) (2023-09-17T11:05:08Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Faster Convex Lipschitz Regression via 2-block ADMM [45.217150417108826]
本稿では,2ブロックADMM手法を用いて,幅広い凸関数学習問題を解く方法を示す。
凸リプシッツ回帰のタスクでは、提案アルゴリズムはデータセットに対して$O(n3 d1.5+n2 d2.5+n d3)$で収束する。
従来の手法と異なり,提案手法は既存手法の最大20倍高速であり,最先端技術に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2021-11-02T03:10:41Z) - Multiscale regression on unknown manifolds [13.752772802705978]
マルチスケールで$mathcalM$に低次元座標を構築し、ローカルフィッティングによるマルチスケール回帰を行います。
本手法の一般化誤差を,事前のリッチクラス上で高い確率で有限サンプル境界を証明することによって解析する。
私たちのアルゴリズムは、サンプルサイズの準線形複雑性を持ち、定数は$D$で、指数は$d$です。
論文 参考訳(メタデータ) (2021-01-13T15:14:31Z) - Ridge regression with adaptive additive rectangles and other piecewise
functional templates [0.0]
関数線形回帰モデルに対する$L_2$ベースのペナル化アルゴリズムを提案する。
提案アルゴリズムは,適切なテンプレートの近似と凸リッジのような問題の解法とを交互に行う方法を示す。
論文 参考訳(メタデータ) (2020-11-02T15:28:54Z) - Reinforcement Learning with General Value Function Approximation:
Provably Efficient Approach via Bounded Eluder Dimension [124.7752517531109]
一般値関数近似を用いた効率の良い強化学習アルゴリズムを確立する。
我々のアルゴリズムは、$d$が複雑性測度である場合、$widetildeO(mathrmpoly(dH)sqrtT)$の後悔の限界を達成することを示す。
我々の理論は線形値関数近似によるRLの最近の進歩を一般化し、環境モデルに対する明示的な仮定をしない。
論文 参考訳(メタデータ) (2020-05-21T17:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。