論文の概要: Approximation Schemes for ReLU Regression
- arxiv url: http://arxiv.org/abs/2005.12844v2
- Date: Mon, 28 Sep 2020 18:08:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 23:47:08.442556
- Title: Approximation Schemes for ReLU Regression
- Title(参考訳): ReLU回帰の近似スキーム
- Authors: Ilias Diakonikolas, Surbhi Goel, Sushrut Karmalkar, Adam R. Klivans,
Mahdi Soltanolkotabi
- Abstract要約: 我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
- 参考スコア(独自算出の注目度): 80.33702497406632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the fundamental problem of ReLU regression, where the goal is to
output the best fitting ReLU with respect to square loss given access to draws
from some unknown distribution. We give the first efficient, constant-factor
approximation algorithm for this problem assuming the underlying distribution
satisfies some weak concentration and anti-concentration conditions (and
includes, for example, all log-concave distributions). This solves the main
open problem of Goel et al., who proved hardness results for any exact
algorithm for ReLU regression (up to an additive $\epsilon$). Using more
sophisticated techniques, we can improve our results and obtain a
polynomial-time approximation scheme for any subgaussian distribution. Given
the aforementioned hardness results, these guarantees can not be substantially
improved.
Our main insight is a new characterization of surrogate losses for nonconvex
activations. While prior work had established the existence of convex
surrogates for monotone activations, we show that properties of the underlying
distribution actually induce strong convexity for the loss, allowing us to
relate the global minimum to the activation's Chow parameters.
- Abstract(参考訳): 本稿では,ReLU回帰の基本的な問題として,未知の分布から引き出されたドローに与えられた2乗損失に対して最適なReLUを出力することを考える。
この問題に対する最初の効率的な定数係数近似アルゴリズムは、基礎となる分布が弱い濃度と反集中条件を満たすことを仮定する(例えば、全ての対数凹分布を含む)。
これは、ReLU回帰の任意の正確なアルゴリズム(加法$\epsilon$まで)に対してハードネスの結果を証明したGoelらの主なオープンな問題を解く。
より高度な手法を用いて、結果を改善し、任意のガウス分布に対する多項式時間近似スキームを得る。
上記の硬度結果を考えると、これらの保証は大幅に改善することはできない。
主な洞察は、非凸アクティベーションに対するサーロゲート損失の新たなキャラクタリゼーションです。
先行研究により単調活性化のための凸サーロゲートの存在が確立されたが、基礎となる分布の性質が実際に損失に対して強い凸性をもたらし、全球最小値が活性化のchowパラメータに関連付けられることを示した。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - A Primal-Dual Approach to Solving Variational Inequalities with General Constraints [54.62996442406718]
Yang et al. (2023) は最近、一般的な変分不等式を解決するために一階勾配法を使う方法を示した。
この方法の収束性を証明し、演算子が$L$-Lipschitz と monotone である場合、この手法の最後の繰り返しのギャップ関数が$O(frac1sqrtK)$で減少することを示す。
論文 参考訳(メタデータ) (2022-10-27T17:59:09Z) - Agnostic Learning of General ReLU Activation Using Gradient Descent [38.28136172081834]
ReLU関数のバイアスがゼロでない場合、より困難なシナリオを考える。
適度なバイアスを持つ最良のReLU関数の最適誤差の定数係数内にある誤差を達成するReLU関数を見いだす。
論文 参考訳(メタデータ) (2022-08-04T15:14:05Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Sparsest Univariate Learning Models Under Lipschitz Constraint [31.28451181040038]
一次元回帰問題に対する連続領域定式化を提案する。
リプシッツ定数をユーザ定義上界を用いて明示的に制御する。
いずれの問題も、連続的かつ断片的線形なグローバル最小化を許容していることが示される。
論文 参考訳(メタデータ) (2021-12-27T07:03:43Z) - Online and Distribution-Free Robustness: Regression and Contextual
Bandits with Huber Contamination [29.85468294601847]
線形回帰と文脈的帯域幅という2つの古典的高次元オンライン学習問題を再考する。
従来の手法が失敗した場合にアルゴリズムが成功することを示す。
論文 参考訳(メタデータ) (2020-10-08T17:59:05Z) - A spectral algorithm for robust regression with subgaussian rates [0.0]
本研究では, 試料の分布に強い仮定がない場合の線形回帰に対する2次時間に対する新しい線形アルゴリズムについて検討する。
目的は、データが有限モーメントしか持たなくても最適な準ガウス誤差を達成できる手順を設計することである。
論文 参考訳(メタデータ) (2020-07-12T19:33:50Z) - Cumulant GAN [17.4556035872983]
GAN(Generative Adversarial Networks)を学習するための新しい損失関数を提案する。
対応する最適化問題は R'enyi divergence minimization と同値であることを示す。
我々は,画像生成がWasserstein GANに対してより堅牢であることを実験的に実証した。
論文 参考訳(メタデータ) (2020-06-11T17:23:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。