論文の概要: How to Efficiently Annotate Images for Best-Performing Deep Learning Based Segmentation Models: An Empirical Study with Weak and Noisy Annotations and Segment Anything Model
- arxiv url: http://arxiv.org/abs/2312.10600v3
- Date: Thu, 23 Jan 2025 16:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 19:43:30.789863
- Title: How to Efficiently Annotate Images for Best-Performing Deep Learning Based Segmentation Models: An Empirical Study with Weak and Noisy Annotations and Segment Anything Model
- Title(参考訳): ディープラーニングに基づくセグメンテーションモデルのための画像の効率的なアノテート方法:弱音・雑音アノテーションとセグメンテーションモデルを用いた実証的研究
- Authors: Yixin Zhang, Shen Zhao, Hanxue Gu, Maciej A. Mazurowski,
- Abstract要約: ディープニューラルネットワーク(DNN)は、様々な画像セグメンテーションタスクで例外的なパフォーマンスを示している。
この課題を軽減するために、弱いラベルを使ったり、より正確でない(ノイズの多い)アノテーションを使ったりできる。
ノイズと弱いラベルは生成がかなり早くなり、同時にアノテートされた画像がより高速になる。
- 参考スコア(独自算出の注目度): 16.745318743249864
- License:
- Abstract: Deep neural networks (DNNs) have demonstrated exceptional performance across various image segmentation tasks. However, the process of preparing datasets for training segmentation DNNs is both labor-intensive and costly, as it typically requires pixel-level annotations for each object of interest. To mitigate this challenge, alternative approaches such as using weak labels (e.g., bounding boxes or scribbles) or less precise (noisy) annotations can be employed. Noisy and weak labels are significantly quicker to generate, allowing for more annotated images within the same time frame. However, the potential decrease in annotation quality may adversely impact the segmentation performance of the resulting model. In this study, we conducted a comprehensive cost-effectiveness evaluation on six variants of annotation strategies (9~10 sub-variants in total) across 4 datasets and conclude that the common practice of precisely outlining objects of interest is virtually never the optimal approach when annotation budget is limited. Both noisy and weak annotations showed usage cases that yield similar performance to the perfectly annotated counterpart, yet had significantly better cost-effectiveness. We hope our findings will help researchers be aware of the different available options and use their annotation budgets more efficiently, especially in cases where accurately acquiring labels for target objects is particularly costly. Our code will be made available on https://github.com/yzluka/AnnotationEfficiency2D.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、様々な画像セグメンテーションタスクで例外的なパフォーマンスを示している。
しかし、セグメンテーションをトレーニングするためのデータセットを作成するプロセスは、通常、興味のあるオブジェクトごとにピクセルレベルのアノテーションを必要とするため、労働集約的かつコストがかかる。
この課題を軽減するために、弱いラベル(例えば、バウンディングボックスやスクリブル)を使ったり、より正確でない(ノイズの多い)アノテーションを使ったりできる。
ノイズと弱いラベルは生成がかなり早くなり、同時にアノテートされた画像がより高速になる。
しかし、アノテーション品質の潜在的な低下は、結果として得られるモデルのセグメンテーション性能に悪影響を及ぼす可能性がある。
本研究では,4つのデータセットにまたがる6種類のアノテーション戦略(計9~10種類のサブバリアント)について総合的な費用対効果評価を行い,アノテーション予算が制限された場合,対象物を正確にアウトラインする一般的な手法は,事実上最適なアプローチではないと結論付けた。
ノイズと弱いアノテーションは、完全に注釈付けされたアノテーションと同じようなパフォーマンスをもたらすが、コスト効率が著しく向上したユースケースを示している。
特に、ターゲットオブジェクトのラベルの正確な取得が特にコストがかかる場合に、研究者が利用可能なさまざまなオプションを認識し、アノテーションの予算をより効率的に活用するのに役立つことを願っています。
私たちのコードはhttps://github.com/yzluka/AnnotationEfficiency2Dで公開されます。
関連論文リスト
- On-the-Fly Point Annotation for Fast Medical Video Labeling [1.890063512530524]
医学研究において、ディープラーニングモデルは高品質な注釈付きデータに依存している。
2つのコーナーを調整する必要があるため、プロセスは本質的にフレーム単位で行われる。
そこで本研究では,ライブビデオアノテーションのオンザフライ方式を提案し,アノテーションの効率を向上させる。
論文 参考訳(メタデータ) (2024-04-22T16:59:43Z) - Learning Tracking Representations from Single Point Annotations [49.47550029470299]
本稿では,単一点アノテーションから追跡表現を弱教師付きで学習することを提案する。
具体的には,エンド・ツー・エンド・エンド・コントラスト学習に先立って,対象対象対象性を取り入れたソフトコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T06:50:58Z) - Deep Active Learning with Noisy Oracle in Object Detection [5.5165579223151795]
ディープオブジェクト検出のためのラベルレビューモジュールを含む複合能動学習フレームワークを提案する。
アクティブなデータセットで部分的にノイズの多いアノテーションを修正するためにアノテーションの予算の一部を利用することで、モデルの性能が早期に向上することを示します。
本実験では,同一のアノテーション予算でラベルレビューを組み込むことで,最大4.5mAPポイントのオブジェクト検出性能の向上を実現した。
論文 参考訳(メタデータ) (2023-09-30T13:28:35Z) - Urban Scene Semantic Segmentation with Low-Cost Coarse Annotation [107.72926721837726]
粗いアノテーションは、セマンティックセグメンテーションモデルをトレーニングするための、低コストで非常に効果的な代替手段である。
粗い注釈付きデータの未ラベル領域の擬似ラベルを生成する粗大な自己学習フレームワークを提案する。
提案手法は,アノテーションの予算のごく一部で完全に注釈付けされたデータに匹敵する性能が得られるため,大幅な性能向上とアノテーションのコストトレードオフを実現する。
論文 参考訳(メタデータ) (2022-12-15T15:43:42Z) - Rethinking Generalization: The Impact of Annotation Style on Medical
Image Segmentation [9.056814157662965]
アノテーションのバイアスを無視するのではなく、アノテーションのバイアスをモデル化することで、データセット間のアノテーションスタイルの違いを考慮できる有望な方法が示される。
次に、特定の画像特徴と相関するモデルアノテーションスタイルに対する画像条件付け手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T15:28:49Z) - A Positive/Unlabeled Approach for the Segmentation of Medical Sequences
using Point-Wise Supervision [3.883460584034766]
本稿では,ポイントワイズアノテーションのみを用いて,医用画像のボリュームや動画を効率的に分割する手法を提案する。
提案手法は,ポイントワイドアノテーションを用いて,適切なポジティブ/アンラベル対象関数を用いてディープラーニングモデルを訓練する。
提案手法は,同じ問題に適応した最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-18T09:13:33Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Towards Using Count-level Weak Supervision for Crowd Counting [55.58468947486247]
本稿では,少数の位置レベルのアノテーション(十分に教師された)と大量のカウントレベルのアノテーション(弱教師付き)からモデルを学習する,弱教師付き群集カウントの問題について検討する。
我々は、生成した密度マップの自由を制限するための正規化を構築するために、単純なyet効果のトレーニング戦略、すなわちMultiple Auxiliary Tasks Training (MATT)を考案した。
論文 参考訳(メタデータ) (2020-02-29T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。