論文の概要: Omni-DETR: Omni-Supervised Object Detection with Transformers
- arxiv url: http://arxiv.org/abs/2203.16089v1
- Date: Wed, 30 Mar 2022 06:36:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:04:31.349276
- Title: Omni-DETR: Omni-Supervised Object Detection with Transformers
- Title(参考訳): Omni-DETR:トランスを用いたOmni-Supervised Object Detection
- Authors: Pei Wang, Zhaowei Cai, Hao Yang, Gurumurthy Swaminathan, Nuno
Vasconcelos, Bernt Schiele, Stefano Soatto
- Abstract要約: 我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
- 参考スコア(独自算出の注目度): 165.4190908259015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of omni-supervised object detection, which can use
unlabeled, fully labeled and weakly labeled annotations, such as image tags,
counts, points, etc., for object detection. This is enabled by a unified
architecture, Omni-DETR, based on the recent progress on student-teacher
framework and end-to-end transformer based object detection. Under this unified
architecture, different types of weak labels can be leveraged to generate
accurate pseudo labels, by a bipartite matching based filtering mechanism, for
the model to learn. In the experiments, Omni-DETR has achieved state-of-the-art
results on multiple datasets and settings. And we have found that weak
annotations can help to improve detection performance and a mixture of them can
achieve a better trade-off between annotation cost and accuracy than the
standard complete annotation. These findings could encourage larger object
detection datasets with mixture annotations. The code is available at
https://github.com/amazon-research/omni-detr.
- Abstract(参考訳): 画像タグやカウント、ポイントなど、ラベルなし、ラベルなし、ラベル付き、弱いラベル付きアノテーションをオブジェクト検出に使用できる全教師付きオブジェクト検出の問題を考察する。
これは、学生-教師フレームワークの最近の進歩とエンドツーエンドトランスフォーマーベースのオブジェクト検出に基づいて、統一アーキテクチャであるOmni-DETRによって実現されている。
この統一アーキテクチャの下では、モデルが学習するための二部マッチングに基づくフィルタリング機構により、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
実験では、Omni-DETRは複数のデータセットと設定で最先端の結果を得た。
そして、弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合は標準の完全アノテーションよりもアノテーションのコストと精度のトレードオフをより良く達成できることがわかった。
これらの発見は、混合アノテーションによるより大きなオブジェクト検出データセットを促進する可能性がある。
コードはhttps://github.com/amazon-research/omni-detrで入手できる。
関連論文リスト
- Bayesian Detector Combination for Object Detection with Crowdsourced Annotations [49.43709660948812]
制約のない画像できめ細かなオブジェクト検出アノテーションを取得するのは、時間がかかり、コストがかかり、ノイズに悩まされる。
ノイズの多いクラウドソースアノテーションでオブジェクト検出をより効果的に訓練するための新しいベイズ検出結合(BDC)フレームワークを提案する。
BDCはモデルに依存しず、アノテータのスキルレベルに関する事前の知識を必要とせず、既存のオブジェクト検出モデルとシームレスに統合される。
論文 参考訳(メタデータ) (2024-07-10T18:00:54Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - ComplETR: Reducing the cost of annotations for object detection in dense
scenes with vision transformers [73.29057814695459]
ComplETRは、部分的にアノテートされた高密度なシーンデータセットで欠落したアノテーションを明示的に補完するように設計されている。
これにより、シーン内のすべてのオブジェクトインスタンスに注釈を付ける必要がなくなり、アノテーションのコストが削減される。
本稿では, 高速R-CNN, カスケードR-CNN, CenterNet2, Deformable DETRなどの人気検出器の性能向上を示す。
論文 参考訳(メタデータ) (2022-09-13T00:11:16Z) - Robust Object Detection With Inaccurate Bounding Boxes [27.664730859319707]
正確なオブジェクト検出器を学習するには、しばしば、正確なオブジェクト境界ボックスを持つ大規模なトレーニングデータが必要である。
本研究では,不正確なバウンディングボックスを用いた頑健な物体検出器の学習という課題に対処することを目的とする。
オブジェクトをインスタンスの袋として扱うことで、私たちはObject-Aware Multiple Instance Learningアプローチを導入します。
論文 参考訳(メタデータ) (2022-07-20T06:57:30Z) - Cross-Supervised Object Detection [42.783400918552765]
完全ラベル付きベースカテゴリから学習した知識を活用して、新しいカテゴリの弱いラベル付き画像からより良いオブジェクト検出器を構築する方法を示す。
本稿では,インスタンスレベルのアノテーションから学習した検出ヘッドと,画像レベルのアノテーションから学習した認識ヘッドを組み合わせた統合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-26T15:33:48Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。