論文の概要: The perils of being unhinged: On the accuracy of classifiers minimizing
a noise-robust convex loss
- arxiv url: http://arxiv.org/abs/2112.04590v1
- Date: Wed, 8 Dec 2021 20:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-11 00:00:41.512651
- Title: The perils of being unhinged: On the accuracy of classifiers minimizing
a noise-robust convex loss
- Title(参考訳): 無害の周辺--ノイズロバスト凸損失を最小化する分類器の精度について
- Authors: Philip M. Long and Rocco A. Servedio
- Abstract要約: van Rooyen らは、凸損失関数がランダムな分類ノイズに対して頑健であるという考えを導入し、この意味では「アンヒンジ」損失関数がロバストであることを証明した。
本稿では, 未知の損失を最小化して得られる二分分類器の精度について検討し, 単純な線形分離可能なデータ分布であっても, 未知の損失を最小化すれば, ランダムな推測よりも精度の低い二分分類器が得られることを考察する。
- 参考スコア(独自算出の注目度): 12.132641563193584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: van Rooyen et al. introduced a notion of convex loss functions being robust
to random classification noise, and established that the "unhinged" loss
function is robust in this sense. In this note we study the accuracy of binary
classifiers obtained by minimizing the unhinged loss, and observe that even for
simple linearly separable data distributions, minimizing the unhinged loss may
only yield a binary classifier with accuracy no better than random guessing.
- Abstract(参考訳): van rooyenらは、ランダムな分類ノイズに対してロバストな凸損失関数の概念を導入し、この意味で「未知の」損失関数はロバストであることを示した。
本報告では, 損失の最小化により得られた2値分類器の精度について検討し, 単純な線形分離可能なデータ分布においても, 損失の最小化は, ランダムな推測よりも精度の高い2値分類器のみが得られることを検証した。
関連論文リスト
- LEARN: An Invex Loss for Outlier Oblivious Robust Online Optimization [56.67706781191521]
敵は、学習者に未知の任意の数kの損失関数を破損させることで、外れ値を導入することができる。
我々は,任意の数kで損失関数を破損させることで,敵が外乱を発生させることができる,頑健なオンラインラウンド最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-12T17:08:31Z) - Binary Losses for Density Ratio Estimation [2.512309434783062]
2つの確率密度の比率を推定することは、機械学習と統計学における中心的な問題である。
本稿では,大きな値の正確な推定を優先する損失関数など,特定の特性を持つ損失関数を構築するための簡単なレシピを提案する。
これはロジスティック損失やロジスティック損失などの古典的損失関数とは対照的であり、小さな値の正確な推定を優先する。
論文 参考訳(メタデータ) (2024-07-01T15:24:34Z) - Symmetric Q-learning: Reducing Skewness of Bellman Error in Online
Reinforcement Learning [55.75959755058356]
深層強化学習では、状態や行動の質を評価するために、価値関数を推定することが不可欠である。
最近の研究では、値関数を訓練する際の誤差分布はベルマン作用素の特性のためにしばしば歪むことが示唆されている。
そこで我々は,ゼロ平均分布から発生する合成ノイズを目標値に加え,ガウス誤差分布を生成するSymmetric Q-learning法を提案する。
論文 参考訳(メタデータ) (2024-03-12T14:49:19Z) - Robustness and reliability when training with noisy labels [12.688634089849023]
教師付き学習のためのデータの遅延は、コストと時間を要する可能性がある。
ディープニューラルネットワークは、ランダムラベルの適合、正規化、ロバストな損失関数の使用を証明している。
論文 参考訳(メタデータ) (2021-10-07T10:30:20Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - On Codomain Separability and Label Inference from (Noisy) Loss Functions [11.780563744330038]
本稿では,任意の(ノイズの多い)損失関数値からラベル推論が可能となる必要かつ十分な条件を検討するために,コドメイン分離性の概念を導入する。
一般的なアクティベーション機能を持つマルチクラスクロスエントロピーや,ブレグマンの発散に基づく損失を含む,多くの一般的な損失関数に対して,任意の雑音レベルに対するラベル推論攻撃を設計可能であることを示す。
論文 参考訳(メタデータ) (2021-07-07T05:29:53Z) - Sample Selection with Uncertainty of Losses for Learning with Noisy
Labels [145.06552420999986]
ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。
しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失をオンザフライで発生させるため、大容量のデータはおそらく正しくないが、確実に誤りではない。
本稿では,損失点推定の代わりに間隔推定を採用することにより,損失の不確実性を取り入れる。
論文 参考訳(メタデータ) (2021-06-01T12:53:53Z) - On the Error Resistance of Hinge Loss Minimization [30.808062097285706]
我々は、損失最小化アルゴリズムが正しい分類器を確実に学習するデータ上の条件の集合を同定する。
特に、データがわずかに非自明なマージンで線形に分類可能であれば、サロゲート損失最小化は非破壊データに無視できる誤差を持つことを示す。
論文 参考訳(メタデータ) (2020-12-02T06:49:24Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Calibrated Surrogate Losses for Adversarially Robust Classification [92.37268323142307]
線形モデルに制限された場合の逆0-1損失に対して凸代理損失は考慮されないことを示す。
また,Massartの雑音条件を満たす場合,対向条件下では凸損失も校正可能であることを示す。
論文 参考訳(メタデータ) (2020-05-28T02:40:42Z) - Improved Natural Language Generation via Loss Truncation [29.676561106319173]
識別性は、無効な参照を扱うための原則的で堅牢な代替手段であることを示す。
学習中に高損失例を適応的に除去する損失トランケーションを提案する。
これは、ログの損失やノイズ下での識別性を厳格に制限するのと同じくらい簡単に最適化できることを示している。
論文 参考訳(メタデータ) (2020-04-30T05:31:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。