論文の概要: Semi-Supervised Learning for Sparsely-Labeled Sequential Data:
Application to Healthcare Video Processing
- arxiv url: http://arxiv.org/abs/2011.14101v4
- Date: Fri, 17 Sep 2021 02:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 19:39:15.960865
- Title: Semi-Supervised Learning for Sparsely-Labeled Sequential Data:
Application to Healthcare Video Processing
- Title(参考訳): 少ないラベル付きシーケンスデータのための半教師付き学習:医療ビデオ処理への応用
- Authors: Florian Dubost, Erin Hong, Nandita Bhaskhar, Siyi Tang, Daniel Rubin,
Christopher Lee-Messer
- Abstract要約: 逐次データにおける事象検出性能を向上させるための半教師付き機械学習学習戦略を提案する。
本手法では, 事象検出モデルの訓練に, 事象の終了時刻の雑音予測を用いる。
我々は,MNISTの平均精度が12ポイント,CIFARが3.5ポイント,保守的評価が12ポイント向上していることを示す。
- 参考スコア(独自算出の注目度): 0.8312466807725921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeled data is a critical resource for training and evaluating machine
learning models. However, many real-life datasets are only partially labeled.
We propose a semi-supervised machine learning training strategy to improve
event detection performance on sequential data, such as video recordings, when
only sparse labels are available, such as event start times without their
corresponding end times. Our method uses noisy guesses of the events' end times
to train event detection models. Depending on how conservative these guesses
are, mislabeled false positives may be introduced into the training set (i.e.,
negative sequences mislabeled as positives). We further propose a mathematical
model for estimating how many inaccurate labels a model is exposed to, based on
how noisy the end time guesses are. Finally, we show that neural networks can
improve their detection performance by leveraging more training data with less
conservative approximations despite the higher proportion of incorrect labels.
We adapt sequential versions of MNIST and CIFAR-10 to empirically evaluate our
method, and find that our risk-tolerant strategy outperforms conservative
estimates by 12 points of mean average precision for MNIST, and 3.5 points for
CIFAR. Then, we leverage the proposed training strategy to tackle a real-life
application: processing continuous video recordings of epilepsy patients to
improve seizure detection, and show that our method outperforms baseline
labeling methods by 10 points of average precision.
- Abstract(参考訳): ラベル付きデータは、機械学習モデルのトレーニングと評価にとって重要なリソースである。
しかし、実際のデータセットの多くは部分的にラベル付けされているだけである。
本稿では,映像記録などの逐次データに対するイベント検出性能を向上させるための半教師付き機械学習トレーニング戦略を提案する。
本手法では,イベントの終了時刻のノイズ推定を用いてイベント検出モデルを学習する。
これらの推測がどれほど保守的であるかによって、誤ったラベル付き偽陽性がトレーニングセットに導入されることがある(すなわち、負のシーケンスは正としてラベル付けされる)。
さらに,最終時刻の推測がどれだけ騒がしいかに基づいて,モデルが露出する不正確なラベルの数を推定する数学的モデルを提案する。
最後に,不正確なラベルの比率が高いにもかかわらず,より保守的な近似値の少ないトレーニングデータを活用することで,ニューラルネットワークによる検出性能の向上が期待できることを示す。
我々は,MNISTとCIFAR-10の逐次バージョンを適用し,本手法を実証的に評価し,MNISTの平均精度を12ポイント,CIFARの3.5ポイントで予測した。
そして,提案手法を応用して,てんかん患者の連続映像記録を処理し,発作検出の改善を図り,平均10ポイントの精度でベースラインラベリング法より優れていることを示す。
関連論文リスト
- Early Stopping Against Label Noise Without Validation Data [54.27621957395026]
所望のモデルを選択するのに検証データを必要としないラベルウェーブと呼ばれる新しい早期停止手法を提案する。
各種設定におけるラベルウェーブ法の有効性と,ノイズラベルを用いた学習における既存手法の性能向上を両立させる能力について述べる。
論文 参考訳(メタデータ) (2025-02-11T13:40:15Z) - Learning from Noisy Labels via Self-Taught On-the-Fly Meta Loss Rescaling [6.861041888341339]
そこで本研究では,リウェイトトレーニングサンプルに対する非教師なしメタロス再スケーリングを提案する。
我々は,対話モデリングの課題を生かした,初級訓練データの再重み付けを試みている。
我々の戦略は、ノイズの多いクリーンなデータに直面し、クラス不均衡を処理し、ノイズの多いラベルへの過度な適合を防ぐ。
論文 参考訳(メタデータ) (2024-12-17T14:37:50Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Don't Wait, Just Weight: Improving Unsupervised Representations by
Learning Goal-Driven Instance Weights [92.16372657233394]
自己教師付き学習技術は、役に立たないデータから有用な表現を学習することで、パフォーマンスを向上させることができる。
ベイジアンのインスタンスの重み付けを学習することで、下流の分類精度を向上させることができることを示す。
本研究では,STL-10 と Visual Decathlon の自己教師型回転予測タスクを用いて,BetaDataWeighter の評価を行った。
論文 参考訳(メタデータ) (2020-06-22T15:59:32Z) - Learning with Out-of-Distribution Data for Audio Classification [60.48251022280506]
我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスを検出・復号化することで,学習に肯定的な影響を及ぼすことを示す。
提案手法は,畳み込みニューラルネットワークの性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-02-11T21:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。