論文の概要: Learning from Time Series under Temporal Label Noise
- arxiv url: http://arxiv.org/abs/2402.04398v1
- Date: Tue, 6 Feb 2024 20:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 18:11:51.964765
- Title: Learning from Time Series under Temporal Label Noise
- Title(参考訳): 時間的ラベル雑音下での時系列からの学習
- Authors: Sujay Nagaraj, Walter Gerych, Sana Tonekaboni, Anna Goldenberg, Berk
Ustun, Thomas Hartvigsen
- Abstract要約: まず、時系列の逐次分類のための未検討問題である時間ラベルノイズを提案し、定式化する。
提案手法は,実データと合成データを用いた多種多様な時間ラベルノイズ関数の存在下での最先端性能につながることを示す。
- 参考スコア(独自算出の注目度): 23.39598516168891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many sequential classification tasks are affected by label noise that varies
over time. Such noise can cause label quality to improve, worsen, or
periodically change over time. We first propose and formalize temporal label
noise, an unstudied problem for sequential classification of time series. In
this setting, multiple labels are recorded in sequence while being corrupted by
a time-dependent noise function. We first demonstrate the importance of
modelling the temporal nature of the label noise function and how existing
methods will consistently underperform. We then propose methods that can train
noise-tolerant classifiers by estimating the temporal label noise function
directly from data. We show that our methods lead to state-of-the-art
performance in the presence of diverse temporal label noise functions using
real and synthetic data.
- Abstract(参考訳): 多くのシーケンシャルな分類タスクは、時間とともに変化するラベルノイズに影響される。
このようなノイズは、ラベルの品質を改善、悪化、あるいは定期的に変化させる可能性がある。
まず,時系列の逐次分類問題である時間ラベル雑音の提案と定式化を行った。
この設定では、時間依存ノイズ関数によって破損しながら複数のラベルを順次記録する。
まず,ラベルノイズ関数の時間的性質をモデル化することの重要性と,既存の手法が一貫して過小評価されることを示す。
次に,データから直接時間ラベルノイズ関数を推定することにより,雑音耐性分類器を訓練する手法を提案する。
提案手法は,実データと合成データを用いた多種多様な時間ラベルノイズ関数の存在下での最先端性能につながることを示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Multi-Label Noise Transition Matrix Estimation with Label Correlations:
Theory and Algorithm [73.94839250910977]
ノイズの多いマルチラベル学習は、大規模な正確なラベルの収集によって生じる課題により、注目を集めている。
遷移行列の導入は、マルチラベルノイズをモデル化し、統計的に一貫したアルゴリズムの開発に役立つ。
そこで本稿では, アンカーポイントを必要とせずに, ラベル相関を利用した新しい推定器を提案する。
論文 参考訳(メタデータ) (2023-09-22T08:35:38Z) - Generating the Ground Truth: Synthetic Data for Soft Label and Label Noise Research [0.0]
実世界のデータからノイズのないデータセットを作成するためのフレームワークであるSynLABELを紹介する。
ラベルノイズを精度よく定量化する能力と,既存の手法による改善を実証する。
論文 参考訳(メタデータ) (2023-09-08T13:31:06Z) - Handling Realistic Label Noise in BERT Text Classification [1.0515439489916731]
実ラベルノイズはランダムではなく、入力特徴や他のアノテータ固有の要因と相関することが多い。
これらのノイズの存在がBERT分類性能を著しく低下させることを示す。
論文 参考訳(メタデータ) (2023-05-23T18:30:31Z) - Rethinking the Value of Labels for Instance-Dependent Label Noise
Learning [43.481591776038144]
実世界のアプリケーションにおけるノイズの多いラベルは、しばしば真のラベルと機能の両方に依存します。
本研究では、ノイズ遷移行列を明示的にモデル化しない新しい深層生成モデルを用いて、インスタンス依存ラベルノイズに対処する。
提案アルゴリズムは,カジュアルな表現学習を活用し,データから高レベルのコンテンツとスタイルの潜伏要素を同時に識別する。
論文 参考訳(メタデータ) (2023-05-10T15:29:07Z) - Instance-dependent Label-noise Learning under a Structural Causal Model [92.76400590283448]
ラベルノイズはディープラーニングアルゴリズムの性能を劣化させる。
構造因果モデルを活用することにより,実例依存型ラベルノイズ学習のための新しい生成手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T10:42:54Z) - Learning with Feature-Dependent Label Noise: A Progressive Approach [19.425199841491246]
一般的なi.i.dよりもはるかに一般的である特徴依存ラベルノイズの新しいファミリーを提案する。
ラベルノイズ。
我々は、様々な(未知)ノイズパターンに対して、この戦略で訓練された分類器がベイズ分類器と一致するように収束することを示す理論的保証を提供する。
論文 参考訳(メタデータ) (2021-03-13T17:34:22Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Extended T: Learning with Mixed Closed-set and Open-set Noisy Labels [86.5943044285146]
ラベルノイズ遷移行列$T$は、真のラベルがノイズのあるものへと反転する確率を反映する。
本稿では,閉集合と開集合の混在したラベル雑音下での学習に着目した。
本手法は,従来の最先端のラベル雑音学習法よりも頑健な性能を追求し,混合ラベル雑音をモデル化する。
論文 参考訳(メタデータ) (2020-12-02T02:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。