論文の概要: Nonconvex Extension of Generalized Huber Loss for Robust Learning and
Pseudo-Mode Statistics
- arxiv url: http://arxiv.org/abs/2202.11141v1
- Date: Tue, 22 Feb 2022 19:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:02:44.633896
- Title: Nonconvex Extension of Generalized Huber Loss for Robust Learning and
Pseudo-Mode Statistics
- Title(参考訳): ロバスト学習と擬似モード統計のための一般化フーバー損失の非凸拡張
- Authors: Kaan Gokcesu, Hakan Gokcesu
- Abstract要約: ログエクスプとロジスティック関数を組み合わせることで、ロスコンバインを生成できることが示されます。
指数収束を最小化するために利用できる頑健な一般化を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an extended generalization of the pseudo Huber loss formulation.
We show that using the log-exp transform together with the logistic function,
we can create a loss which combines the desirable properties of the strictly
convex losses with robust loss functions. With this formulation, we show that a
linear convergence algorithm can be utilized to find a minimizer. We further
discuss the creation of a quasi-convex composite loss and provide a
derivative-free exponential convergence rate algorithm.
- Abstract(参考訳): 擬ハマー損失定式化の拡張一般化を提案する。
本稿では,log-exp変換とロジスティック関数を用いて,厳密な凸損失の望ましい特性とロジスティック損失関数を組み合わせた損失を生成できることを示す。
この定式化により、線形収束アルゴリズムを用いて最小値を求めることができることを示す。
さらに、準凸複合損失の生成について論じ、微分自由指数収束率アルゴリズムを提案する。
関連論文リスト
- Enabling Tensor Decomposition for Time-Series Classification via A Simple Pseudo-Laplacian Contrast [26.28414569796961]
本稿では, Pseudo Laplacian Contrast (PLC) テンソル分解フレームワークを提案する。
データ拡張とラプラシアンのクロスビューを統合し、クラス認識表現の抽出を可能にする。
様々なデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-23T16:48:13Z) - A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Convex Bounds on the Softmax Function with Applications to Robustness
Verification [69.09991317119679]
ソフトマックス関数は、ニューラルネットワークの出力においてユビキタスなコンポーネントであり、中間層もますます多くなっている。
本稿では,ニューラルネットワークや他のMLモデルのキャラクタリゼーションのための凸最適化式と互換性のある,ソフトマックス関数上の凸下界と凹上界を提供する。
論文 参考訳(メタデータ) (2023-03-03T05:07:02Z) - Functional Output Regression with Infimal Convolution: Exploring the
Huber and $\epsilon$-insensitive Losses [1.7835960292396256]
本稿では,Forceファミリーの様々な形態のアウトレーヤや疎結合を扱えるフレキシブルなフレームワークを提案する。
計算的に抽出可能なアルゴリズムを双対性に頼って、結果のタスクに対処する。
このアプローチの効率は、合成ベンチマークと実世界のベンチマークの両方において古典的な2乗損失設定と対比され、比較される。
論文 参考訳(メタデータ) (2022-06-16T14:45:53Z) - Generalized Huber Loss for Robust Learning and its Efficient
Minimization for a Robust Statistics [0.0]
好適な選択関数により、絶対損失と二次損失の両方の望ましい性質を組み合わせた損失関数を実現できることを示す。
このような損失関数の最小化を求めるアルゴリズムを提供し、集中化計量の発見が従来の平均値や中央値よりもそれほど難しくないことを示す。
論文 参考訳(メタデータ) (2021-08-28T11:18:14Z) - Universal Online Convex Optimization Meets Second-order Bounds [74.0120666722487]
ユニバーサルオンライン凸最適化のための簡単な戦略を提案する。
主要なアイデアは、オリジナルのオンライン機能を処理するための専門家のセットを構築し、線形化された損失に対してメタアルゴリズムをデプロイすることである。
このようにして、私たちはブラックボックスの専門家として、既成のオンライン問題解決者をプラグインして、問題依存の後悔の限界を提供することができます。
論文 参考訳(メタデータ) (2021-05-08T11:43:49Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - The Implicit Bias of Gradient Descent on Separable Data [44.98410310356165]
予測器は最大マージン(シャープマージンSVM)解の方向へ収束することを示す。
これは、トレーニングエラーがゼロになった後もロジスティックまたはクロスエントロピー損失を最適化し続ける利点を説明するのに役立つ。
論文 参考訳(メタデータ) (2017-10-27T21:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。