論文の概要: Good Enough: Is it Worth Improving your Label Quality?
- arxiv url: http://arxiv.org/abs/2505.20928v1
- Date: Tue, 27 May 2025 09:18:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.539062
- Title: Good Enough: Is it Worth Improving your Label Quality?
- Title(参考訳): 良い点:それはラベルの品質を改善する価値があるか?
- Authors: Alexander Jaus, Zdravko Marinov, Constantin Seibold, Simon Reiß, Jens Kleesiek, Rainer Stiefelhagen,
- Abstract要約: 高品質なラベルはドメイン内のパフォーマンスを改善するが、小さなしきい値以下では、利益は依然として不透明である。
事前トレーニングの場合、ラベルの品質は最小限の影響を受けており、モデルが詳細なアノテーションよりも一般的な概念を伝達することを示唆している。
- 参考スコア(独自算出の注目度): 66.74591380455261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving label quality in medical image segmentation is costly, but its benefits remain unclear. We systematically evaluate its impact using multiple pseudo-labeled versions of CT datasets, generated by models like nnU-Net, TotalSegmentator, and MedSAM. Our results show that while higher-quality labels improve in-domain performance, gains remain unclear if below a small threshold. For pre-training, label quality has minimal impact, suggesting that models rather transfer general concepts than detailed annotations. These findings provide guidance on when improving label quality is worth the effort.
- Abstract(参考訳): 医用画像のセグメンテーションにおけるラベル品質の向上は費用がかかるが、その利点はいまだ不明である。
我々は,nU-Net,TotalSegmentator,MedSAMなどのモデルにより生成された複数の擬似ラベル付きCTデータセットを用いて,その影響を系統的に評価した。
その結果,高品質なラベルではドメイン内性能が向上するが,しきい値以下では利得が不透明であることが示唆された。
事前トレーニングの場合、ラベルの品質は最小限の影響を受けており、モデルが詳細なアノテーションよりも一般的な概念を伝達することを示唆している。
これらの知見は,ラベルの品質向上に努力する価値があるか,というガイダンスを提供する。
関連論文リスト
- When VLMs Meet Image Classification: Test Sets Renovation via Missing Label Identification [11.49089004019603]
本稿では,画像分類テストセットにおけるノイズラベルと欠落ラベルの両方に対処するため,REVEALという包括的フレームワークを提案する。
REVEALは潜在的なノイズのあるラベルや欠落を検出し、様々な方法から予測を集約し、信頼性インフォームド予測とコンセンサスに基づくフィルタリングによってラベルの精度を向上する。
提案手法は,公開データセットから欠落したラベルを効果的に明らかにし,ソフトラベルによる結果に可能性が示唆された。
論文 参考訳(メタデータ) (2025-05-22T02:47:36Z) - You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Quality Sentinel: Estimating Label Quality and Errors in Medical Segmentation Datasets [11.134987228105162]
医用セグメンテーションデータセットのマニュアルアノテーションと比較してラベル品質を推定するための回帰モデルであるQuality Sentinelを導入する。
この回帰モデルは、私たちが開発した400万以上の画像ラベルペアでトレーニングされました。
われわれの品質センサーは、142のボディ構造のラベル品質を予測できる。
論文 参考訳(メタデータ) (2024-06-01T07:03:15Z) - Label Smarter, Not Harder: CleverLabel for Faster Annotation of
Ambiguous Image Classification with Higher Quality [0.6927055673104933]
私たちは1つのオプションとして提案誘導アノテーションを使用し、アノテーション間の一貫性を高めます。
本稿では,検証された提案誘導アノテーションと修復されたLABLを用いて,コスト効率の高いLabElingのためのCleverLabelを提案する。
クレバーラベルはラベリングコストを最大30.0%削減し、クルバック・リーバーの分岐率を最大29.8%に向上させる。
論文 参考訳(メタデータ) (2023-05-22T08:12:25Z) - Bridging the Gap between Model Explanations in Partially Annotated
Multi-label Classification [85.76130799062379]
偽陰性ラベルがモデルの説明にどのように影響するかを考察する。
本稿では,部分ラベルで学習したモデルの属性スコアを向上し,その説明をフルラベルで学習したモデルと類似させる。
論文 参考訳(メタデータ) (2023-04-04T14:00:59Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Incorporating Semi-Supervised and Positive-Unlabeled Learning for
Boosting Full Reference Image Quality Assessment [73.61888777504377]
フル参照(FR)画像品質評価(IQA)は、その知覚的差異をプリズム品質基準で測定することにより、歪み画像の視覚的品質を評価する。
ラベルなしデータは、画像劣化または復元プロセスから容易に収集することができ、ラベルなしのトレーニングデータを利用してFR-IQA性能を高めることを奨励する。
本稿では, 半教師付き, 正の未ラベル学習(PU)を用いて, ラベルなしデータを活用し, オフレーヤの悪影響を軽減することを提案する。
論文 参考訳(メタデータ) (2022-04-19T09:10:06Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Active label cleaning: Improving dataset quality under resource
constraints [13.716577886649018]
ラベルノイズとして知られるデータアノテーションの欠陥は、機械学習モデルのトレーニングに有害である。
この研究は、再アノテーションのためのサンプルを優先順位付けするためのデータ駆動アプローチを提唱する。
評価されたラベルの正しさと各サンプルのラベル付け難易度に応じて格付けを行い,再現性を評価するためのシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2021-09-01T19:03:57Z) - Learning Image Labels On-the-fly for Training Robust Classification
Models [13.669654965671604]
ノイズの多いアノテーション(例えば、異なるアルゴリズムベースのラベル付け子から)を一緒に利用し、相互に分類タスクの学習に役立てることができるかを示す。
メタトレーニングベースのラベルサンプリングモジュールは、追加のバックプロパゲーションプロセスを通じてモデル学習の恩恵を受けるラベルに出席するように設計されている。
論文 参考訳(メタデータ) (2020-09-22T05:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。