論文の概要: Exploring Loss Design Techniques For Decision Tree Robustness To Label Noise
- arxiv url: http://arxiv.org/abs/2405.17672v1
- Date: Mon, 27 May 2024 21:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 23:11:29.060968
- Title: Exploring Loss Design Techniques For Decision Tree Robustness To Label Noise
- Title(参考訳): ラベルノイズに対する決定木ロバストネスのための損失設計手法の探索
- Authors: Lukasz Sztukiewicz, Jack Henry Good, Artur Dubrawski,
- Abstract要約: 決定木の堅牢性向上に深層学習損失設計の考え方を応用できるかどうかを検討する。
両手法とも損失補正と対称損失は有効ではないことを示す。
- 参考スコア(独自算出の注目度): 12.13779291372763
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the real world, data is often noisy, affecting not only the quality of features but also the accuracy of labels. Current research on mitigating label errors stems primarily from advances in deep learning, and a gap exists in exploring interpretable models, particularly those rooted in decision trees. In this study, we investigate whether ideas from deep learning loss design can be applied to improve the robustness of decision trees. In particular, we show that loss correction and symmetric losses, both standard approaches, are not effective. We argue that other directions need to be explored to improve the robustness of decision trees to label noise.
- Abstract(参考訳): 実世界では、データはしばしば騒々しく、特徴の質だけでなくラベルの精度にも影響を与えます。
ラベル誤りの軽減に関する現在の研究は、主にディープラーニングの進歩に起因し、解釈可能なモデル、特に決定木に根ざしたモデルにおいてギャップが存在する。
本研究では,Deciment Treeの堅牢性を向上させるために,ディープラーニングの損失設計からアイデアを適用できるかどうかを検討する。
特に、両標準手法とも損失補正と対称損失は有効ではないことを示す。
我々は、ノイズをラベル付けするための決定木の堅牢性を改善するために、他の方向を検討する必要があると論じている。
関連論文リスト
- Robust Loss Functions for Training Decision Trees with Noisy Labels [4.795403008763752]
我々は、頑健な学習アルゴリズムに繋がる損失関数に着目し、ノイズの多いラベル付きデータを用いて決定木を訓練することを検討する。
まず、決定木学習の文脈において、既存の損失関数のロバスト性に関する新しい理論的知見を提供する。
第2に,分散損失と呼ばれるロバストな損失関数を構築するためのフレームワークを導入する。
論文 参考訳(メタデータ) (2023-12-20T11:27:46Z) - ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Mitigating Label Noise through Data Ambiguation [9.51828574518325]
表現力の高い大型モデルは、誤ったラベルを記憶する傾向があるため、一般化性能を損なう。
本稿では,対象情報の「曖昧化」により,両手法の欠点に対処することを提案する。
より正確には、いわゆる超集合学習の枠組みを利用して、信頼度閾値に基づいて設定値の目標を構築する。
論文 参考訳(メタデータ) (2023-05-23T07:29:08Z) - Prototype-Anchored Learning for Learning with Imperfect Annotations [83.7763875464011]
不完全な注釈付きデータセットからバイアスのない分類モデルを学ぶことは困難である。
本稿では,様々な学習に基づく分類手法に容易に組み込むことができるプロトタイプ・アンコレッド学習法を提案する。
我々は,PALがクラス不均衡学習および耐雑音学習に与える影響を,合成および実世界のデータセットに関する広範な実験により検証した。
論文 参考訳(メタデータ) (2022-06-23T10:25:37Z) - Do We Need to Penalize Variance of Losses for Learning with Label Noise? [91.38888889609002]
ノイズラベルを用いた学習では,差分を増大させる必要がある。
ラベルノイズ遷移行列を利用することで、正規化器は損失の分散を低減することができる。
実験的に,損失の分散を増大させることにより,合成データセットと実世界のデータセットのベースラインの一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2022-01-30T06:19:08Z) - Sample Selection with Uncertainty of Losses for Learning with Noisy
Labels [145.06552420999986]
ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。
しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失をオンザフライで発生させるため、大容量のデータはおそらく正しくないが、確実に誤りではない。
本稿では,損失点推定の代わりに間隔推定を採用することにより,損失の不確実性を取り入れる。
論文 参考訳(メタデータ) (2021-06-01T12:53:53Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Which Strategies Matter for Noisy Label Classification? Insight into
Loss and Uncertainty [7.20844895799647]
ラベルノイズは、ディープニューラルネットワークの一般化性能を低下させる重要な要因である。
学習過程を通じてサンプルの損失値と不確実性値がどのように変化するかの分析結果を示す。
我々は,ノイズの影響を最小限に抑えつつ,清潔で情報的なサンプルを強調する新しいロバストなトレーニング手法を設計する。
論文 参考訳(メタデータ) (2020-08-14T07:34:32Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。