論文の概要: Functional Output Regression with Infimal Convolution: Exploring the
Huber and $\epsilon$-insensitive Losses
- arxiv url: http://arxiv.org/abs/2206.08220v1
- Date: Thu, 16 Jun 2022 14:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 22:50:31.997017
- Title: Functional Output Regression with Infimal Convolution: Exploring the
Huber and $\epsilon$-insensitive Losses
- Title(参考訳): 不完全な畳み込みを伴う機能的出力回帰: Huber と $\epsilon$-insensitive Losses の探索
- Authors: Alex Lambert, Dimitri Bouche, Zoltan Szabo, Florence d'Alch\'e-Buc
- Abstract要約: 本稿では,Forceファミリーの様々な形態のアウトレーヤや疎結合を扱えるフレキシブルなフレームワークを提案する。
計算的に抽出可能なアルゴリズムを双対性に頼って、結果のタスクに対処する。
このアプローチの効率は、合成ベンチマークと実世界のベンチマークの両方において古典的な2乗損失設定と対比され、比較される。
- 参考スコア(独自算出の注目度): 1.7835960292396256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The focus of the paper is functional output regression (FOR) with convoluted
losses. While most existing work consider the square loss setting, we leverage
extensions of the Huber and the $\epsilon$-insensitive loss (induced by infimal
convolution) and propose a flexible framework capable of handling various forms
of outliers and sparsity in the FOR family. We derive computationally tractable
algorithms relying on duality to tackle the resulting tasks in the context of
vector-valued reproducing kernel Hilbert spaces. The efficiency of the approach
is demonstrated and contrasted with the classical squared loss setting on both
synthetic and real-world benchmarks.
- Abstract(参考訳): 論文の焦点は、畳み込み損失を伴う機能的出力回帰(for)である。
既存のほとんどの作品は正方形損失設定を考慮しているが、フーバーと$\epsilon$非感受性損失(インフィマル畳み込みによって引き起こされる)を活用し、様々な形の外れ値やforファミリーのスパーシティを扱える柔軟なフレームワークを提案している。
我々は、ベクトル値の再現核ヒルベルト空間の文脈で得られるタスクに取り組むために双対性に依存する計算可能なアルゴリズムを導出する。
このアプローチの効率性は、合成ベンチマークと実世界のベンチマークの両方において古典的な2乗損失設定と対比される。
関連論文リスト
- A Robust Quantile Huber Loss With Interpretable Parameter Adjustment In
Distributional Reinforcement Learning [19.89141873890568]
本稿では、ワッサーシュタイン距離(WD)計算から導かれる一般化量子ハマー損失関数を提案する。
古典的な量子ハマー損失と比較して、この革新的な損失関数は外れ値に対する堅牢性を高める。
分散RLの一般的な応用であるアタリゲームに対する実証実験と、分布RLを用いた最近のヘッジ戦略により、提案した損失関数を検証した。
論文 参考訳(メタデータ) (2024-01-04T15:51:49Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online
Ensemble Approach [65.10444843694003]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $widehatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Nonconvex Extension of Generalized Huber Loss for Robust Learning and
Pseudo-Mode Statistics [0.0]
ログエクスプとロジスティック関数を組み合わせることで、ロスコンバインを生成できることが示されます。
指数収束を最小化するために利用できる頑健な一般化を示す。
論文 参考訳(メタデータ) (2022-02-22T19:32:02Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - Optimal Rates for Random Order Online Optimization [60.011653053877126]
敵が損失関数を選択できるカテットガルバー2020onlineについて検討するが、一様にランダムな順序で提示される。
2020onlineアルゴリズムが最適境界を達成し,安定性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-06-29T09:48:46Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Online and Distribution-Free Robustness: Regression and Contextual
Bandits with Huber Contamination [29.85468294601847]
線形回帰と文脈的帯域幅という2つの古典的高次元オンライン学習問題を再考する。
従来の手法が失敗した場合にアルゴリズムが成功することを示す。
論文 参考訳(メタデータ) (2020-10-08T17:59:05Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Nonlinear Functional Output Regression: a Dictionary Approach [1.8160945635344528]
本稿では,辞書上に拡張された関数の予測を学習する新しい辞書ベースの手法であるプロジェクション・ラーニング(PL)を紹介する。
PLは機能的損失に基づいて経験的リスクを最小限にする。
PLは特に計算コストとパフォーマンスのトレードオフを享受しています。
論文 参考訳(メタデータ) (2020-03-03T10:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。