論文の概要: Loss Knows Best: Detecting Annotation Errors in Videos via Loss Trajectories
- arxiv url: http://arxiv.org/abs/2602.15154v1
- Date: Mon, 16 Feb 2026 19:53:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.888716
- Title: Loss Knows Best: Detecting Annotation Errors in Videos via Loss Trajectories
- Title(参考訳): 動画でアノテーションのエラーを検知する「Loss Trajectories」
- Authors: Praditha Alwis, Soumyadeep Chandra, Deepak Ravikumar, Kaushik Roy,
- Abstract要約: ビデオデータセットにおけるアノテーションエラーを検出するためのモデルに依存しない手法を提案する。
本手法では,アノテーションの誤りに関する基礎的な真理は必要とせず,データセット間で一般化可能である。
EgoPERとColec80は強力な検出性能を示し、誤ラベルやフレーム障害などの微妙な矛盾を効果的に識別する。
- 参考スコア(独自算出の注目度): 11.597228102492672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-quality video datasets are foundational for training robust models in tasks like action recognition, phase detection, and event segmentation. However, many real-world video datasets suffer from annotation errors such as *mislabeling*, where segments are assigned incorrect class labels, and *disordering*, where the temporal sequence does not follow the correct progression. These errors are particularly harmful in phase-annotated tasks, where temporal consistency is critical. We propose a novel, model-agnostic method for detecting annotation errors by analyzing the Cumulative Sample Loss (CSL)--defined as the average loss a frame incurs when passing through model checkpoints saved across training epochs. This per-frame loss trajectory acts as a dynamic fingerprint of frame-level learnability. Mislabeled or disordered frames tend to show consistently high or irregular loss patterns, as they remain difficult for the model to learn throughout training, while correctly labeled frames typically converge to low loss early. To compute CSL, we train a video segmentation model and store its weights at each epoch. These checkpoints are then used to evaluate the loss of each frame in a test video. Frames with persistently high CSL are flagged as likely candidates for annotation errors, including mislabeling or temporal misalignment. Our method does not require ground truth on annotation errors and is generalizable across datasets. Experiments on EgoPER and Cholec80 demonstrate strong detection performance, effectively identifying subtle inconsistencies such as mislabeling and frame disordering. The proposed approach provides a powerful tool for dataset auditing and improving training reliability in video-based machine learning.
- Abstract(参考訳): 高品質なビデオデータセットは、アクション認識、フェーズ検出、イベントセグメンテーションといったタスクで堅牢なモデルをトレーニングするための基礎となります。
しかし、多くの実世界のビデオデータセットは、*mislabeling*、セグメントが間違ったクラスラベルに割り当てられている*mislabeling*、*disordering*のようなアノテーションエラーに悩まされている。
これらのエラーは、時間的一貫性が重要なフェーズアノテートタスクにおいて特に有害である。
そこで本研究では,CSL (Cumulative Sample Loss) を学習エポックに保存したモデルチェックポイントを通過した際のフレームの損失平均として定義し,アノテーションエラーを検出する手法を提案する。
このフレーム単位の損失軌跡は、フレームレベルの学習可能性の動的な指紋として機能する。
誤ラベルまたは乱れたフレームは、トレーニングを通してモデルを学習することが困難である一方で、正しくラベル付けされたフレームは、一般的には早期に低い損失に収束するため、一貫して高い損失パターンまたは不規則な損失パターンを示す傾向にある。
CSLを計算するために,ビデオセグメンテーションモデルをトレーニングし,各エポックに重みを格納する。
これらのチェックポイントは、テストビデオ内の各フレームの損失を評価するために使用される。
CSLが持続的に高いフレームは、誤ラベルや時間的ミスアライメントなどのアノテーションエラーの候補としてフラグ付けされる。
本手法では,アノテーションの誤りに関する基礎的な真理は必要とせず,データセット間で一般化可能である。
EgoPERとColec80の実験は強力な検出性能を示し、誤ラベルやフレーム障害などの微妙な矛盾を効果的に識別する。
提案手法は,ビデオベース機械学習のデータセット監査とトレーニング信頼性向上のための強力なツールを提供する。
関連論文リスト
- Hard Samples, Bad Labels: Robust Loss Functions That Know When to Back Off [1.1582652820340928]
間違ったラベル付けされたトレーニングデータは、教師付き学習によって訓練されたモデルの性能と一般化性に悪影響を及ぼす。
そこで我々はBlurry Loss と Piecewise-zero Loss という2つの新しい損失関数を評価した。
論文 参考訳(メタデータ) (2025-11-20T16:30:55Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Semi-Supervised End-To-End Contrastive Learning For Time Series Classification [9.46287383389573]
時系列分類は、金融、医療、センサーデータ分析など、さまざまな分野において重要な課題である。
SLOTS(Semi-supervised Learning fOr Time clasSification)と呼ばれるエンドツーエンドモデルを提案する。
論文 参考訳(メタデータ) (2023-10-13T04:22:21Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - PULL: Reactive Log Anomaly Detection Based On Iterative PU Learning [58.85063149619348]
本稿では,推定故障時間ウィンドウに基づくリアクティブ異常検出のための反復ログ解析手法PULLを提案する。
我々の評価では、PULLは3つの異なるデータセットで10のベンチマークベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-01-25T16:34:43Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Anomaly detection in surveillance videos using transformer based
attention model [3.2968779106235586]
本研究は、トレーニングビデオにおける異常セグメントの注釈付けを避けるために、弱教師付き戦略を用いることを示唆する。
提案するフレームワークは,実世界のデータセット,すなわちShanghaiTech Campusデータセットで検証される。
論文 参考訳(メタデータ) (2022-06-03T12:19:39Z) - A Background-Agnostic Framework with Adversarial Training for Abnormal
Event Detection in Video [120.18562044084678]
近年,ビデオにおける異常事象検出は複雑なコンピュータビジョンの問題として注目されている。
通常のイベントのみを含むトレーニングビデオから学習するバックグラウンドに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-27T18:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。