論文の概要: Learning with Noisy Labels for Human Fall Events Classification: Joint
Cooperative Training with Trinity Networks
- arxiv url: http://arxiv.org/abs/2310.06854v1
- Date: Wed, 27 Sep 2023 13:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:16:21.491953
- Title: Learning with Noisy Labels for Human Fall Events Classification: Joint
Cooperative Training with Trinity Networks
- Title(参考訳): 転倒事象分類のためのノイズラベルを用いた学習:トリニティネットワークを用いた協調学習
- Authors: Leiyu Xie, Yang Sun, Syed Mohsen Naqvi
- Abstract要約: ディープラーニングの発展において、データラベルの品質は不可欠である。
ノイズの多いラベル学習に関する最近の研究は、ニューラルネットワークがまずクリーンでシンプルなインスタンスにフォーカスし、トレーニング段階でノイズの多いインスタンスとハードインスタンスに従うことを確認している。
ノイズの多いラベル問題による学習に対処し、人間のプライバシを保護するために、トライニティ・ネットワーク(JoCoT)との共同協調学習(JoCoT)という、シンプルで効果的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 5.808635738004806
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing ageing population, fall events classification has drawn
much research attention. In the development of deep learning, the quality of
data labels is crucial. Most of the datasets are labelled automatically or
semi-automatically, and the samples may be mislabeled, which constrains the
performance of Deep Neural Networks (DNNs). Recent research on noisy label
learning confirms that neural networks first focus on the clean and simple
instances and then follow the noisy and hard instances in the training stage.
To address the learning with noisy label problem and protect the human
subjects' privacy, we propose a simple but effective approach named Joint
Cooperative training with Trinity Networks (JoCoT). To mitigate the privacy
issue, human skeleton data are used. The robustness and performance of the
noisy label learning framework is improved by using the two teacher modules and
one student module in the proposed JoCoT. To mitigate the incorrect selections,
the predictions from the teacher modules are applied with the consensus-based
method to guide the student module training. The performance evaluation on the
widely used UP-Fall dataset and comparison with the state-of-the-art, confirms
the effectiveness of the proposed JoCoT in high noise rates. Precisely, JoCoT
outperforms the state-of-the-art by 5.17% and 3.35% with the averaged pairflip
and symmetric noises, respectively.
- Abstract(参考訳): 高齢化に伴い、秋のイベントの分類は研究の注目を集めている。
ディープラーニングの発展において、データラベルの品質は不可欠である。
ほとんどのデータセットは自動または半自動でラベル付けされ、サンプルは誤ってラベル付けされ、ディープニューラルネットワーク(DNN)のパフォーマンスが制限される。
ノイズラベル学習に関する最近の研究は、ニューラルネットワークがまずクリーンでシンプルなインスタンスに注目し、次にトレーニングステージのノイズとハードインスタンスに従うことを確認している。
ノイズの多いラベル問題による学習に対処し,人間のプライバシを保護するために,トライニティ・ネットワーク(JoCoT)による協調学習という,シンプルかつ効果的なアプローチを提案する。
プライバシー問題を緩和するために、人間の骨格データを使用する。
提案したJoCoTの2つの教師モジュールと1つの生徒モジュールを用いて,雑音ラベル学習フレームワークの堅牢性と性能を向上する。
間違った選択を緩和するために,教師モジュールからの予測をコンセンサスに基づく手法で適用し,学生モジュールのトレーニングを指導する。
広範に使用されるアップフォールデータセットの性能評価と最新データとの比較により,高騒音域におけるjocotの有効性が確認された。
正確には、JoCoTは平均的なペアフリップと対称ノイズで最先端の5.17%と3.35%を上回っている。
関連論文リスト
- JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Hierarchical Supervision and Shuffle Data Augmentation for 3D
Semi-Supervised Object Detection [90.32180043449263]
最先端の3Dオブジェクト検出器は通常、高品質な3Dアノテーションを備えた大規模データセットで訓練される。
自然な治療法は、限られた量のラベル付きサンプルと豊富なラベル付きサンプルを活用することで、半教師付き学習(SSL)を採用することである。
本稿では,HSSDA(Hierarchical Supervision and Shuffle Data Augmentation)の新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-04-04T02:09:32Z) - Neighborhood-Regularized Self-Training for Learning with Few Labels [21.7848889781112]
自己学習の欠点の1つは、誤った擬似ラベルからのラベルノイズに弱いことである。
そこで我々は, 周辺住民によるサンプル選択手法を開発し, ノイズのある擬似ラベルの問題に対処する。
提案したデータ選択戦略は擬似ラベルのノイズを36.8%削減し、最良のベースラインと比較して57.3%の時間を節約する。
論文 参考訳(メタデータ) (2023-01-10T00:07:33Z) - Context-based Virtual Adversarial Training for Text Classification with
Noisy Labels [1.9508698179748525]
本研究では,テキスト分類器が雑音ラベルに過度に収まらないよう,コンテキストベースの仮想対位訓練(ConVAT)を提案する。
従来の手法とは異なり,提案手法は入力よりも文脈レベルで逆学習を行う。
2種類のラベルノイズを持つ4つのテキスト分類データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-29T14:19:49Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - Combating noisy labels by agreement: A joint training method with
co-regularization [27.578738673827658]
トレーニング中の2つのネットワークの多様性を低減することを目的とした,JoCoRと呼ばれる堅牢な学習パラダイムを提案する。
ノイズラベルを用いた学習において,JoCoRは最先端の多くのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-05T16:42:41Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。