論文の概要: Functional Output Regression with Infimal Convolution: Exploring the
Huber and $\epsilon$-insensitive Losses
- arxiv url: http://arxiv.org/abs/2206.08220v1
- Date: Thu, 16 Jun 2022 14:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 22:50:31.997017
- Title: Functional Output Regression with Infimal Convolution: Exploring the
Huber and $\epsilon$-insensitive Losses
- Title(参考訳): 不完全な畳み込みを伴う機能的出力回帰: Huber と $\epsilon$-insensitive Losses の探索
- Authors: Alex Lambert, Dimitri Bouche, Zoltan Szabo, Florence d'Alch\'e-Buc
- Abstract要約: 本稿では,Forceファミリーの様々な形態のアウトレーヤや疎結合を扱えるフレキシブルなフレームワークを提案する。
計算的に抽出可能なアルゴリズムを双対性に頼って、結果のタスクに対処する。
このアプローチの効率は、合成ベンチマークと実世界のベンチマークの両方において古典的な2乗損失設定と対比され、比較される。
- 参考スコア(独自算出の注目度): 1.7835960292396256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The focus of the paper is functional output regression (FOR) with convoluted
losses. While most existing work consider the square loss setting, we leverage
extensions of the Huber and the $\epsilon$-insensitive loss (induced by infimal
convolution) and propose a flexible framework capable of handling various forms
of outliers and sparsity in the FOR family. We derive computationally tractable
algorithms relying on duality to tackle the resulting tasks in the context of
vector-valued reproducing kernel Hilbert spaces. The efficiency of the approach
is demonstrated and contrasted with the classical squared loss setting on both
synthetic and real-world benchmarks.
- Abstract(参考訳): 論文の焦点は、畳み込み損失を伴う機能的出力回帰(for)である。
既存のほとんどの作品は正方形損失設定を考慮しているが、フーバーと$\epsilon$非感受性損失(インフィマル畳み込みによって引き起こされる)を活用し、様々な形の外れ値やforファミリーのスパーシティを扱える柔軟なフレームワークを提案している。
我々は、ベクトル値の再現核ヒルベルト空間の文脈で得られるタスクに取り組むために双対性に依存する計算可能なアルゴリズムを導出する。
このアプローチの効率性は、合成ベンチマークと実世界のベンチマークの両方において古典的な2乗損失設定と対比される。
関連論文リスト
- Tensor Decomposition with Unaligned Observations [4.970364068620608]
アンアラインな観測モードは、再生カーネルヒルベルト空間(RKHS)の関数を用いて表現される
本稿では,2値型,整数値型,正値型など,データの種類を効果的に説明できる多元的損失関数を提案する。
また、$ell$ロス関数を使用する際の効率向上のためにスケッチアルゴリズムも導入された。
論文 参考訳(メタデータ) (2024-10-17T21:39:18Z) - EnsLoss: Stochastic Calibrated Loss Ensembles for Preventing Overfitting in Classification [1.3778851745408134]
経験的リスク最小化フレームワーク内で損失関数を結合する新しいアンサンブル手法,すなわちEnsLossを提案する。
まず、損失のCC条件を損失導関数に変換し、明示的な損失関数の必要性を回避した。
理論的には、我々のアプローチの統計的一貫性を確立し、その利点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-02T02:40:42Z) - LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Byzantine-resilient Federated Learning With Adaptivity to Data Heterogeneity [54.145730036889496]
本稿では、ビザンツの悪意ある攻撃データの存在下でのグラディエント・ラーニング(FL)を扱う。
Average Algorithm (RAGA) が提案され、ロバストネスアグリゲーションを活用してデータセットを選択することができる。
論文 参考訳(メタデータ) (2024-03-20T08:15:08Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Universal Online Learning with Gradient Variations: A Multi-layer Online Ensemble Approach [57.92727189589498]
本稿では,2段階の適応性を持つオンライン凸最適化手法を提案する。
我々は$mathcalO(log V_T)$, $mathcalO(d log V_T)$, $hatmathcalO(sqrtV_T)$ regret bounds for strong convex, exp-concave and convex loss function。
論文 参考訳(メタデータ) (2023-07-17T09:55:35Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Nonconvex Extension of Generalized Huber Loss for Robust Learning and
Pseudo-Mode Statistics [0.0]
ログエクスプとロジスティック関数を組み合わせることで、ロスコンバインを生成できることが示されます。
指数収束を最小化するために利用できる頑健な一般化を示す。
論文 参考訳(メタデータ) (2022-02-22T19:32:02Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Nonlinear Functional Output Regression: a Dictionary Approach [1.8160945635344528]
本稿では,辞書上に拡張された関数の予測を学習する新しい辞書ベースの手法であるプロジェクション・ラーニング(PL)を紹介する。
PLは機能的損失に基づいて経験的リスクを最小限にする。
PLは特に計算コストとパフォーマンスのトレードオフを享受しています。
論文 参考訳(メタデータ) (2020-03-03T10:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。