論文の概要: DETReg: Unsupervised Pretraining with Region Priors for Object Detection
- arxiv url: http://arxiv.org/abs/2106.04550v1
- Date: Tue, 8 Jun 2021 17:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 18:03:54.791079
- Title: DETReg: Unsupervised Pretraining with Region Priors for Object Detection
- Title(参考訳): detreg: オブジェクト検出のための領域優先型教師なし事前トレーニング
- Authors: Amir Bar, Xin Wang, Vadim Kantorov, Colorado J Reed, Roei Herzig, Gal
Chechik, Anna Rohrbach, Trevor Darrell, Amir Globerson
- Abstract要約: DETRegは、領域事前を用いたTRansformersを用いたオブジェクト検出のための教師なし事前学習手法である。
物体検出の基礎となる2つのタスクである局所化と分類によって、我々は2つの補完的な信号を組み合わせて自己監督を行う。
- 参考スコア(独自算出の注目度): 97.68091875259698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised pretraining has recently proven beneficial for computer vision
tasks, including object detection. However, previous self-supervised approaches
are not designed to handle a key aspect of detection: localizing objects. Here,
we present DETReg, an unsupervised pretraining approach for object DEtection
with TRansformers using Region priors. Motivated by the two tasks underlying
object detection: localization and categorization, we combine two complementary
signals for self-supervision. For an object localization signal, we use pseudo
ground truth object bounding boxes from an off-the-shelf unsupervised region
proposal method, Selective Search, which does not require training data and can
detect objects at a high recall rate and very low precision. The categorization
signal comes from an object embedding loss that encourages invariant object
representations, from which the object category can be inferred. We show how to
combine these two signals to train the Deformable DETR detection architecture
from large amounts of unlabeled data. DETReg improves the performance over
competitive baselines and previous self-supervised methods on standard
benchmarks like MS COCO and PASCAL VOC. DETReg also outperforms previous
supervised and unsupervised baseline approaches on low-data regime when trained
with only 1%, 2%, 5%, and 10% of the labeled data on MS COCO. For code and
pretrained models, visit the project page at https://amirbar.net/detreg
- Abstract(参考訳): 教師なし事前訓練は、オブジェクト検出を含むコンピュータビジョンタスクに有用であることが最近証明された。
しかし、従来の自己教師型アプローチは、検出の重要な側面であるオブジェクトのローカライズを扱うように設計されていない。
ここでは、領域事前を用いたTRansformersを用いたオブジェクト検出のための教師なし事前学習手法であるDETRegを提案する。
局所化と分類という2つの課題に動機づけられ、自己スーパービジョンのための2つの補完的信号を組み合わせた。
対象のローカライズ信号には、既成の非教師なし領域提案法であるseudo ground truth object bounding boxを用いて、トレーニングデータを必要としない、高いリコールレートで極端に精度の低いオブジェクトを検出可能な選択的探索を行う。
分類信号は、不変オブジェクト表現を促進するオブジェクト埋め込み損失から来ており、そこからオブジェクトカテゴリを推測することができる。
この2つの信号を組み合わせて、大量のラベルのないデータからDeformable DETR検出アーキテクチャをトレーニングする方法を示す。
DETRegは、MS COCOやPASCAL VOCのような標準ベンチマークにおける、競合するベースラインと以前の自己監督手法よりもパフォーマンスを向上する。
DETRegはまた、MS COCO上のラベル付きデータのわずか1%、2%、5%、10%でトレーニングされた場合、従来の教師なしベースラインアプローチよりも優れていた。
コードと事前訓練されたモデルについては、https://amirbar.net/detregのプロジェクトページを参照してください。
関連論文リスト
- MutDet: Mutually Optimizing Pre-training for Remote Sensing Object Detection [36.478530086163744]
本研究では,MutDetと呼ばれるリモートセンシングオブジェクト検出のための,Mutally最適化事前学習フレームワークを提案する。
MutDetはオブジェクトの埋め込みを融合し、検出器は最後のエンコーダ層に双方向に機能し、情報インタラクションを強化する。
様々な環境での実験は、新しい最先端の転送性能を示している。
論文 参考訳(メタデータ) (2024-07-13T15:28:15Z) - DEYO: DETR with YOLO for End-to-End Object Detection [0.0]
純粋な畳み込み構造エンコーダであるDETRとYOLO(DEYO)を併用した初のリアルタイムエンドツーエンドオブジェクト検出モデルを提案する。
トレーニングの第一段階では、エンドツーエンド検出器の背骨と首を初期化するために、1対1のマッチング戦略で事前訓練された古典的な検出器を用いる。
トレーニングの第2段階では,エンド・ツー・エンド検出器の背骨と頸部を凍結し,デコーダのトレーニングをスクラッチから行う必要がある。
論文 参考訳(メタデータ) (2024-02-26T07:48:19Z) - Rank-DETR for High Quality Object Detection [52.82810762221516]
高性能なオブジェクト検出器は、バウンディングボックス予測の正確なランキングを必要とする。
本研究では, 簡易かつ高性能なDETR型物体検出器について, 一連のランク指向設計を提案して紹介する。
論文 参考訳(メタデータ) (2023-10-13T04:48:32Z) - Aligned Unsupervised Pretraining of Object Detectors with Self-training [41.03780087924593]
物体検出器の教師なし事前訓練は、近年、物体検出器訓練の重要な要素となっている。
本稿では、この問題を緩和し、3つの単純かつ重要な要素からなるフレームワークを提案する。
当社の戦略は,スクラッチ(背骨を含む)からの事前トレーニングも可能であり,COCOのような複雑な画像にも適用可能であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:46:00Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - DAP: Detection-Aware Pre-training with Weak Supervision [37.336674323981285]
本稿では,オブジェクト検出タスクに対する検出認識事前学習(DAP)アプローチを提案する。
分類データセットをクラスアクティベーションマップに基づく弱教師付きオブジェクトローカライズ手法により検出データセットに変換する。
VOCやCOCOなどの下流検出タスクにおいて,サンプル効率と収束速度の両面で,DAPが従来の事前学習よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-30T19:48:30Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z) - Exploring Bottom-up and Top-down Cues with Attentive Learning for Webly
Supervised Object Detection [76.9756607002489]
本稿では,新しいクラスを対象としたWebSOD法を提案する。
提案手法はボトムアップとトップダウンを組み合わせた新しいクラス検出手法である。
提案手法は,3種類の新規/ベース分割を持つPASCAL VOCデータセット上で実証した。
論文 参考訳(メタデータ) (2020-03-22T03:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。