論文の概要: Truncate-Split-Contrast: A Framework for Learning from Mislabeled Videos
- arxiv url: http://arxiv.org/abs/2212.13495v1
- Date: Tue, 27 Dec 2022 14:09:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 14:42:18.692877
- Title: Truncate-Split-Contrast: A Framework for Learning from Mislabeled Videos
- Title(参考訳): Truncate-Split-Contrast: ビデオから学ぶためのフレームワーク
- Authors: Wang Zixiao, Weng Junwu, Yuan Chun, and Wang Jue
- Abstract要約: ノイズラベルを用いたビデオ解析のための2つの新しい手法を提案する。
1つの方法は、各カテゴリのクリーンなインスタンスとノイズの多いインスタンスを分割する最も識別性の高いチャネルを選択する。
もうひとつの戦略は、モデルトレーニングを正規化するためのクリーンなインスタンスとノイズの多いインスタンスの関係を構築することだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with noisy label (LNL) is a classic problem that has been
extensively studied for image tasks, but much less for video in the literature.
A straightforward migration from images to videos without considering the
properties of videos, such as computational cost and redundant information, is
not a sound choice. In this paper, we propose two new strategies for video
analysis with noisy labels: 1) A lightweight channel selection method dubbed as
Channel Truncation for feature-based label noise detection. This method selects
the most discriminative channels to split clean and noisy instances in each
category; 2) A novel contrastive strategy dubbed as Noise Contrastive Learning,
which constructs the relationship between clean and noisy instances to
regularize model training. Experiments on three well-known benchmark datasets
for video classification show that our proposed tru{\bf N}cat{\bf
E}-split-contr{\bf A}s{\bf T} (NEAT) significantly outperforms the existing
baselines. By reducing the dimension to 10\% of it, our method achieves over
0.4 noise detection F1-score and 5\% classification accuracy improvement on
Mini-Kinetics dataset under severe noise (symmetric-80\%). Thanks to Noise
Contrastive Learning, the average classification accuracy improvement on
Mini-Kinetics and Sth-Sth-V1 is over 1.6\%.
- Abstract(参考訳): ノイズラベルを用いた学習(LNL)は、画像タスクのために広く研究されてきた古典的な問題であるが、文学におけるビデオでははるかに少ない。
計算コストや冗長な情報といったビデオの特性を考慮せずに、画像からビデオへ簡単に移行することは、良い選択ではない。
本稿では,雑音ラベルを用いたビデオ解析のための2つの新しい手法を提案する。
1)特徴量に基づくラベルノイズ検出のためのチャネルトラニケーションと呼ばれる軽量チャネル選択法
本手法は,各カテゴリのクリーンかつノイズの多いインスタンスを分割する最も識別性の高いチャネルを選択する。
2) モデル学習を規則化するクリーンインスタンスとノイズインスタンスの関係を構成するノイズコントラスト学習と呼ばれる新しいコントラスト戦略。
ビデオ分類のための3つのよく知られたベンチマークデータセットの実験により、提案したtru{\bf N}cat{\bf E}-split-contr{\bf A}s{\bf T} (NEAT) が既存のベースラインを大幅に上回ることを示した。
本手法では,大雑音下での最小運動量データセットにおける0.4以上のノイズ検出f1-scoreと5.%の分類精度向上を実現する(対称80-%)。
ノイズコントラスト学習により、Mini-KineticsとSth-Sth-V1の平均分類精度は1.6\%以上向上した。
関連論文リスト
- Class Prototype-based Cleaner for Label Noise Learning [73.007001454085]
半教師付き学習法は、雑音ラベル学習問題に対する現在のSOTAソリューションである。
textbfClass textbfPrototype-based label textbfCleaner。
論文 参考訳(メタデータ) (2022-12-21T04:56:41Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - UNICON: Combating Label Noise Through Uniform Selection and Contrastive
Learning [89.56465237941013]
UNICONは,高ラベル雑音に対して頑健な,シンプルで効果的なサンプル選択法である。
90%のノイズレートでCIFAR100データセットの最先端データよりも11.4%改善した。
論文 参考訳(メタデータ) (2022-03-28T07:36:36Z) - Synergistic Network Learning and Label Correction for Noise-robust Image
Classification [28.27739181560233]
ディープニューラルネットワーク(DNN)は、トレーニングラベルノイズに過度に適合する傾向があるため、実際のモデルパフォーマンスは低下する。
損失選択と雑音補正のアイデアを組み合わせたロバストなラベル補正フレームワークを提案する。
ノイズタイプやレートの異なる合成および実世界のデータセット上で,本手法を実証する。
論文 参考訳(メタデータ) (2022-02-27T23:06:31Z) - Adaptive Sample Selection for Robust Learning under Label Noise [1.71982924656402]
ディープニューラルネットワーク(DNN)は、ノイズの多いラベル付きデータの存在下で記憶や過度な適合の影響を受けることが示されている。
著名なアルゴリズムのクラスは、カリキュラム学習に動機づけられたサンプル選択戦略に依存している。
本稿では,バッチ統計のみに依存するデータ依存型適応型サンプル選択手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:10:58Z) - Training Classifiers that are Universally Robust to All Label Noise
Levels [91.13870793906968]
ディープニューラルネットワークは、ラベルノイズの存在下で過度に適合する傾向がある。
ポジティヴ・アンラベルラーニングの新たなサブカテゴリを取り入れた蒸留ベースのフレームワークを提案する。
我々の枠組みは概して中~高騒音レベルにおいて優れています。
論文 参考訳(メタデータ) (2021-05-27T13:49:31Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - LongReMix: Robust Learning with High Confidence Samples in a Noisy Label
Environment [33.376639002442914]
新しい2段ノイズラベルトレーニングアルゴリズムLongReMixを提案します。
CIFAR-10, CIFAR-100, WebVision, Clothing1M, Food101-NでLongReMixを試験した。
私たちのアプローチは、ほとんどのデータセットで最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-03-06T18:48:40Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。