論文の概要: UFO$^2$: A Unified Framework towards Omni-supervised Object Detection
- arxiv url: http://arxiv.org/abs/2010.10804v1
- Date: Wed, 21 Oct 2020 07:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:30:53.690001
- Title: UFO$^2$: A Unified Framework towards Omni-supervised Object Detection
- Title(参考訳): UFO$^2$:Omni教師対象検出のための統一フレームワーク
- Authors: Zhongzheng Ren, Zhiding Yu, Xiaodong Yang, Ming-Yu Liu, Alexander G.
Schwing, Jan Kautz
- Abstract要約: UFO$2$は、異なる形式の監視を同時に処理できる統一オブジェクト検出フレームワークである。
具体的には、UFO$2$は、強力な監督(箱など)、様々な形式の部分的な監督(例えば、クラスタグ、ポイント、スクリブル)、ラベルなしのデータを含んでいる。
- 参考スコア(独自算出の注目度): 175.9693271392461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing work on object detection often relies on a single form of
annotation: the model is trained using either accurate yet costly bounding
boxes or cheaper but less expressive image-level tags. However, real-world
annotations are often diverse in form, which challenges these existing works.
In this paper, we present UFO$^2$, a unified object detection framework that
can handle different forms of supervision simultaneously. Specifically, UFO$^2$
incorporates strong supervision (e.g., boxes), various forms of partial
supervision (e.g., class tags, points, and scribbles), and unlabeled data.
Through rigorous evaluations, we demonstrate that each form of label can be
utilized to either train a model from scratch or to further improve a
pre-trained model. We also use UFO$^2$ to investigate budget-aware
omni-supervised learning, i.e., various annotation policies are studied under a
fixed annotation budget: we show that competitive performance needs no strong
labels for all data. Finally, we demonstrate the generalization of UFO$^2$,
detecting more than 1,000 different objects without bounding box annotations.
- Abstract(参考訳): モデルは、正確だがコストのかかるバウンディングボックスか、より安価だが表現力の低いイメージレベルタグを使用してトレーニングされる。
しかし、現実世界のアノテーションは形式的に多様であり、既存の作業に挑戦している。
本稿では,異なる形式の監視を同時に処理できる統一オブジェクト検出フレームワークであるUFO$^2$を提案する。
具体的には、UFO$^2$は、強い監督(箱など)、様々な形式の部分的監督(例えば、クラスタグ、ポイント、スクリブル)、ラベル付きデータを含んでいる。
厳密な評価を通じて,各形態のラベルを,スクラッチからモデルを訓練するか,事前学習モデルを改善するために利用できることを示す。
また、UFO$^2$を用いて、予算を意識したオムニ教師付き学習、すなわち、様々なアノテーションポリシーを固定されたアノテーション予算の下で研究し、競争性能が全てのデータに対して強力なラベルを必要としないことを示す。
最後に、UFO$^2$の一般化を実演し、ボックスアノテーションを拘束することなく1000以上の異なるオブジェクトを検出する。
関連論文リスト
- Exploiting Unlabeled Data with Multiple Expert Teachers for Open Vocabulary Aerial Object Detection and Its Orientation Adaptation [58.37525311718006]
OVAD(Open-vocabulary Aero Object Detection)という,航空物体検出問題の新しい定式化を行った。
本稿では,CLIP-activated students-Teacher DetectionフレームワークであるCastDetを提案する。
本フレームワークは,ロバストなローカライズ教師といくつかのボックス選択戦略を統合し,新しいオブジェクトの高品質な提案を生成する。
論文 参考訳(メタデータ) (2024-11-04T12:59:13Z) - Robot Instance Segmentation with Few Annotations for Grasping [10.005879464111915]
セミスーパーバイザードラーニング(SSL)とラーニング・スルー・インタラクション(LTI)を組み合わせた新しいフレームワークを提案する。
提案手法は,自己スーパービジョンによる注釈付きデータを利用して,ラベルのない静止画像から生成された擬似シーケンスを用いて時間的コンテキストを組み込む。
本手法をARMBenchmix-object-toteとOCIDの2つのベンチマークで検証し,最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-01T13:58:32Z) - GlanceVAD: Exploring Glance Supervision for Label-efficient Video
Anomaly Detection [36.73022075416943]
本稿では,異常検出精度とアノテーションコストのバランスを改善するために,"glance annotations"と呼ばれる新しいラベリングパラダイムを提案する。
本手法の有効性を評価するため,UCF-Crime と XD-Violence の2つの標準ビデオ異常検出データセットに対して,視線アノテーションを手動でアノテートする。
また,Ssianカーネルを基本単位として時間的異常分布を構成するGlanceVAD法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:57:10Z) - Weakly Supervised Knowledge Transfer with Probabilistic Logical
Reasoning for Object Detection [6.88204255655161]
オブジェクト検出モデルのトレーニングは通常、各画像に存在するすべてのオブジェクトの位置やラベルなど、インスタンスレベルのアノテーションを必要とする。
残念ながらこのような監視は必ずしも可能ではなく、より多くは画像レベルの情報のみ提供され、弱い監督(英語版)としても知られている。
ProbKTは、オブジェクト検出モデルを任意の種類の弱い監視で訓練できるフレームワークである。
論文 参考訳(メタデータ) (2023-03-09T10:03:02Z) - Open World DETR: Transformer based Open World Object Detection [60.64535309016623]
そこで我々は,Deformable DETRに基づくオープンワールドオブジェクト検出のための2段階学習手法Open World DETRを提案する。
モデルのクラス固有のコンポーネントを多視点の自己ラベル戦略と一貫性制約で微調整する。
提案手法は、他の最先端のオープンワールドオブジェクト検出方法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-06T13:39:30Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Omni-DETR: Omni-Supervised Object Detection with Transformers [165.4190908259015]
我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2022-03-30T06:36:09Z) - Explicitly Modeling the Discriminability for Instance-Aware Visual
Object Tracking [13.311777431243296]
特徴表現の識別性を明らかにするための新しいインスタンス・アウェア・トラッカー (IAT) を提案する。
提案するIATには,ビデオレベルとオブジェクトレベルを含む2つのバリエーションを実装している。
どちらのバージョンも30FPSで動作しながら最先端のメソッドに対して主要な結果を得る。
論文 参考訳(メタデータ) (2021-10-28T11:24:01Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。