論文の概要: FMG-Det: Foundation Model Guided Robust Object Detection
- arxiv url: http://arxiv.org/abs/2505.23726v1
- Date: Thu, 29 May 2025 17:55:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.062132
- Title: FMG-Det: Foundation Model Guided Robust Object Detection
- Title(参考訳): FMG-Det:ロバスト物体検出のための基礎モデル
- Authors: Darryl Hannan, Timothy Doster, Henry Kvinge, Adam Attarian, Yijing Watkins,
- Abstract要約: ノイズアノテーションの訓練は検出器性能を著しく低下させる。
ノイズの多いアノテーションでモデルをトレーニングするための,シンプルで効率的な方法論である -Det を提案する。
- 参考スコア(独自算出の注目度): 7.489718044485341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collecting high quality data for object detection tasks is challenging due to the inherent subjectivity in labeling the boundaries of an object. This makes it difficult to not only collect consistent annotations across a dataset but also to validate them, as no two annotators are likely to label the same object using the exact same coordinates. These challenges are further compounded when object boundaries are partially visible or blurred, which can be the case in many domains. Training on noisy annotations significantly degrades detector performance, rendering them unusable, particularly in few-shot settings, where just a few corrupted annotations can impact model performance. In this work, we propose FMG-Det, a simple, efficient methodology for training models with noisy annotations. More specifically, we propose combining a multiple instance learning (MIL) framework with a pre-processing pipeline that leverages powerful foundation models to correct labels prior to training. This pre-processing pipeline, along with slight modifications to the detector head, results in state-of-the-art performance across a number of datasets, for both standard and few-shot scenarios, while being much simpler and more efficient than other approaches.
- Abstract(参考訳): オブジェクト検出タスクの高品質なデータ収集は、オブジェクトの境界をラベル付けする固有の主観性のため困難である。
これにより、データセット全体で一貫性のあるアノテーションを収集するだけでなく、それらを検証することも難しくなります。
これらの課題は、オブジェクト境界が部分的に見えるか、ぼやけているときにさらに複雑になる。
ノイズの多いアノテーションのトレーニングは、ディテクターのパフォーマンスを著しく低下させ、特に、いくつかの破損したアノテーションがモデルのパフォーマンスに影響を及ぼす、いくつかのショット設定で、それらを使用不能にする。
本研究では,ノイズの多いアノテーションでモデルをトレーニングするための簡易かつ効率的な手法であるFMG-Detを提案する。
より具体的には、トレーニング前にラベルを修正するために強力な基礎モデルを活用する前処理パイプラインに、マルチインスタンス学習(MIL)フレームワークを組み合わせることを提案する。
この前処理パイプラインは、検出器ヘッドのわずかな変更とともに、標準シナリオと少数ショットシナリオの両方において、多数のデータセットにわたる最先端のパフォーマンスを実現すると同時に、他のアプローチよりもはるかにシンプルで効率的なものだ。
関連論文リスト
- S$^2$Teacher: Step-by-step Teacher for Sparsely Annotated Oriented Object Detection [55.34086214300803]
部分的なインスタンスのみをラベル付けするSAOOD(sparsely annotated object detection)という新しい設定を導入する。
具体的には,(1)前景表現に過度に適合するスパースラベリング,(2)未ラベルオブジェクト(偽陰性)が特徴学習を混乱させる,という2つの課題に焦点をあてる。
そこで本稿では,S$2$Teacherを提案する。S$2$Teacherは,非ラベルオブジェクトの擬似ラベルを,手軽から硬まで段階的にマイニングし,前景表現を強化する手法である。
論文 参考訳(メタデータ) (2025-04-15T11:57:00Z) - Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Boost UAV-based Ojbect Detection via Scale-Invariant Feature Disentanglement and Adversarial Learning [18.11107031800982]
本稿では,スケール不変の特徴を学習することで,単段階推論の精度を向上させることを提案する。
提案手法は,モデル精度を効果的に向上し,2つのデータセット上での最先端(SoTA)性能を実現する。
論文 参考訳(メタデータ) (2024-05-24T11:40:22Z) - The devil is in the object boundary: towards annotation-free instance segmentation using Foundation Models [24.53385855664792]
オブジェクト検出とインスタンスのセグメンテーションでは、SAMやDINOのような基礎モデルは満足なパフォーマンスを達成するのに苦労する。
我々は、新しい分類優先発見パイプラインにおいて、$textbfZip$, $textbfZ$ips up CL$textbfip$, SAMを提案する。
Zipは、COCOデータセット上のSAMのマスクAPを12.5%大きく向上させ、さまざまな設定で最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-04-18T07:22:38Z) - Towards Few-Annotation Learning for Object Detection: Are
Transformer-based Models More Efficient ? [11.416621957617334]
本稿では,現在最先端のオブジェクト検出器であるDeformable DETRに適した半教師付き手法を提案する。
本手法はCOCOとPascal VOCの半教師付きオブジェクト検出ベンチマークで評価し,特にアノテーションが少ない場合,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-30T18:51:25Z) - Scaling Novel Object Detection with Weakly Supervised Detection
Transformers [21.219817483091166]
Weakly Supervised Detection Transformerを提案する。これは大規模な事前学習データセットからWSODファインタニングへの効率的な知識伝達を可能にする。
提案手法は, 大規模オブジェクト検出データセットにおいて, 従来の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-11T21:45:54Z) - Omni-DETR: Omni-Supervised Object Detection with Transformers [165.4190908259015]
我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2022-03-30T06:36:09Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Dense Relation Distillation with Context-aware Aggregation for Few-Shot
Object Detection [18.04185751827619]
新規なオブジェクトのきめ細かい特徴を、ほんのわずかなデータで簡単に見落としてしまうため、オブジェクト検出は困難である。
本稿では,少数の検出問題に対処するために,DCNet (Context-aware Aggregation) を用いたDense Relation Distillationを提案する。
論文 参考訳(メタデータ) (2021-03-30T05:34:49Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。