論文の概要: Auto-Labeling Data for Object Detection
- arxiv url: http://arxiv.org/abs/2506.02359v1
- Date: Tue, 03 Jun 2025 01:27:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.193057
- Title: Auto-Labeling Data for Object Detection
- Title(参考訳): オブジェクト検出のための自動ラベルデータ
- Authors: Brent A. Griffin, Manushree Gangwar, Jacob Sela, Jason J. Corso,
- Abstract要約: 本稿では,基礎となる真理ラベルを使わずに標準物体検出モデルを訓練する問題に対処する。
視覚言語基礎モデルを用いて,アプリケーション固有の擬似「地下真実」ラベルを生成する。
当社のアプローチは,複数のデータセット上での競合性能を維持する上で,標準的なラベル付けに代わる有効な手段であることに気付きました。
- 参考スコア(独自算出の注目度): 20.557988700343373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Great labels make great models. However, traditional labeling approaches for tasks like object detection have substantial costs at scale. Furthermore, alternatives to fully-supervised object detection either lose functionality or require larger models with prohibitive computational costs for inference at scale. To that end, this paper addresses the problem of training standard object detection models without any ground truth labels. Instead, we configure previously-trained vision-language foundation models to generate application-specific pseudo "ground truth" labels. These auto-generated labels directly integrate with existing model training frameworks, and we subsequently train lightweight detection models that are computationally efficient. In this way, we avoid the costs of traditional labeling, leverage the knowledge of vision-language models, and keep the efficiency of lightweight models for practical application. We perform exhaustive experiments across multiple labeling configurations, downstream inference models, and datasets to establish best practices and set an extensive auto-labeling benchmark. From our results, we find that our approach is a viable alternative to standard labeling in that it maintains competitive performance on multiple datasets and substantially reduces labeling time and costs.
- Abstract(参考訳): 素晴らしいレーベルは素晴らしいモデルを作ります。
しかし、オブジェクト検出のようなタスクに対する従来のラベル付けアプローチは、大規模にかなりのコストがかかる。
さらに、完全に教師されたオブジェクト検出の代替手段は、機能を失うか、大規模な推論において計算コストが禁じられたより大きなモデルを必要とする。
そのために,本論文では,根拠となる真理ラベルを使わずに,標準物体検出モデルをトレーニングする問題に対処する。
代わりに、事前に訓練された視覚言語基盤モデルを設定し、アプリケーション固有の擬似「地上真実」ラベルを生成する。
これらの自動生成ラベルは、既存のモデルトレーニングフレームワークと直接統合され、計算効率の良い軽量検出モデルを訓練します。
このように、従来のラベル付けのコストを回避し、視覚言語モデルの知識を活用し、実用的な応用のための軽量モデルの効率を維持する。
複数のラベル設定、下流推論モデル、データセットにわたる徹底的な実験を行い、ベストプラクティスを確立し、広範な自動ラベルベンチマークを設定します。
結果から,本手法は,複数のデータセット上での競合性能を維持し,ラベルの時間とコストを大幅に削減する上で,標準ラベリングに代わる有効な方法であることがわかった。
関連論文リスト
- Labeling Indoor Scenes with Fusion of Out-of-the-Box Perception Models [4.157013247909771]
ボトムアップセグメンテーション(SAM)、オブジェクト検出(Detic)、セマンティックセグメンテーション(MaskFormer)の最先端モデルを活用することを提案する。
室内環境におけるセマンティックセグメンテーションとオブジェクトインスタンス検出のための擬似ラベルを得るための,コスト効率の高いラベリング手法を開発することを目的とする。
提案手法の有効性を,Active VisionデータセットとADE20Kデータセットに示す。
論文 参考訳(メタデータ) (2023-11-17T21:58:26Z) - Impact of Label Types on Training SWIN Models with Overhead Imagery [0.0]
本研究は,境界ボックスとセグメンテーションラベルを用いたシフト窓変圧器の訓練効果について検討した。
対象画素のみにトレーニングしたモデルでは,分類タスクの性能向上が得られないことがわかった。
オブジェクト検出では、各ラベルタイプでトレーニングされたモデルが、テスト全体で同等のパフォーマンスを示した。
論文 参考訳(メタデータ) (2023-10-11T15:14:54Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Ground Truth Inference for Weakly Supervised Entity Matching [76.6732856489872]
弱監督タスクのための単純だが強力なラベル付けモデルを提案する。
次に、エンティティマッチングのタスクに特化してラベルモデルを調整します。
その結果,従来の手法よりもF1スコアが9%高い結果が得られた。
論文 参考訳(メタデータ) (2022-11-13T17:57:07Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Learning from Noisy Labels for Entity-Centric Information Extraction [17.50856935207308]
エンティティ中心の情報抽出のための単純な共正規化フレームワークを提案する。
これらのモデルはタスク固有の損失と共同最適化され、同様の予測を生成するために正規化される。
結局のところ、トレーニングされたモデルのいずれかを推論に利用できます。
論文 参考訳(メタデータ) (2021-04-17T22:49:12Z) - How to trust unlabeled data? Instance Credibility Inference for Few-Shot
Learning [47.21354101796544]
本稿では,未ラベルのインスタンスを数発の視覚認識に利用するために,ICI (Instance Credibility Inference) と呼ばれる統計的アプローチを提案する。
擬似ラベル付きインスタンスの信頼性は, それらの付随パラメータの正規化経路に沿ってランク付けし, 最も信頼性の高い擬似ラベル付きインスタンスを拡張ラベル付きインスタンスとして保存する。
論文 参考訳(メタデータ) (2020-07-15T03:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。