論文の概要: DAP: Detection-Aware Pre-training with Weak Supervision
- arxiv url: http://arxiv.org/abs/2103.16651v1
- Date: Tue, 30 Mar 2021 19:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:37:31.648354
- Title: DAP: Detection-Aware Pre-training with Weak Supervision
- Title(参考訳): DAP:弱スーパービジョンによる検知・認識事前学習
- Authors: Yuanyi Zhong, Jianfeng Wang, Lijuan Wang, Jian Peng, Yu-Xiong Wang,
Lei Zhang
- Abstract要約: 本稿では,オブジェクト検出タスクに対する検出認識事前学習(DAP)アプローチを提案する。
分類データセットをクラスアクティベーションマップに基づく弱教師付きオブジェクトローカライズ手法により検出データセットに変換する。
VOCやCOCOなどの下流検出タスクにおいて,サンプル効率と収束速度の両面で,DAPが従来の事前学習よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 37.336674323981285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a detection-aware pre-training (DAP) approach, which
leverages only weakly-labeled classification-style datasets (e.g., ImageNet)
for pre-training, but is specifically tailored to benefit object detection
tasks. In contrast to the widely used image classification-based pre-training
(e.g., on ImageNet), which does not include any location-related training
tasks, we transform a classification dataset into a detection dataset through a
weakly supervised object localization method based on Class Activation Maps to
directly pre-train a detector, making the pre-trained model location-aware and
capable of predicting bounding boxes. We show that DAP can outperform the
traditional classification pre-training in terms of both sample efficiency and
convergence speed in downstream detection tasks including VOC and COCO. In
particular, DAP boosts the detection accuracy by a large margin when the number
of examples in the downstream task is small.
- Abstract(参考訳): 本稿では,事前学習のための弱いラベル付き分類型データセット(例: imagenet)のみを活用するが,対象検出タスクに特化して調整する,dap( detection-aware pre-training)アプローチを提案する。
位置関連トレーニングタスクを含まない画像分類ベースの事前トレーニング(例えば、ImageNet)とは対照的に、クラスアクティベーションマップに基づく弱い教師付きオブジェクトローカライゼーション手法により、分類データセットを検出データセットに変換して検出器を直接事前トレーニングし、事前トレーニングされたモデルの位置認識と境界ボックスの予測を可能にする。
VOCやCOCOなどの下流検出タスクにおいて,サンプル効率と収束速度の両面で,DAPが従来の事前学習よりも優れていることを示す。
特に,ダウンストリームタスクの例数が少ない場合には,検出精度を大きなマージンで向上させる。
関連論文リスト
- Aligned Unsupervised Pretraining of Object Detectors with Self-training [41.03780087924593]
物体検出器の教師なし事前訓練は、近年、物体検出器訓練の重要な要素となっている。
本稿では、この問題を緩和し、3つの単純かつ重要な要素からなるフレームワークを提案する。
当社の戦略は,スクラッチ(背骨を含む)からの事前トレーニングも可能であり,COCOのような複雑な画像にも適用可能であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:46:00Z) - AlignDet: Aligning Pre-training and Fine-tuning in Object Detection [38.256555424079664]
AlignDetは統合された事前トレーニングフレームワークで、様々な既存の検出器に適応して、相違を緩和することができる。
検出アルゴリズム、モデルバックボーン、データ設定、トレーニングスケジュールなど、さまざまなプロトコル間で大幅な改善が達成できる。
論文 参考訳(メタデータ) (2023-07-20T17:55:14Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - Self-supervised Pretraining with Classification Labels for Temporal
Activity Detection [54.366236719520565]
時間的アクティビティ検出は、1フレーム当たりのアクティビティクラスを予測することを目的としている。
検出に必要なフレームレベルのアノテーションが高価なため、検出データセットの規模は限られている。
本研究では,分類ラベルを利用した自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-26T18:59:28Z) - DETReg: Unsupervised Pretraining with Region Priors for Object Detection [103.93533951746612]
DETRegは、オブジェクト検出ネットワーク全体を事前トレーニングする、新しい自己教師型メソッドである。
事前トレーニング中、DETRegはオブジェクトのローカライゼーションを予測し、教師なしのリージョン提案ジェネレータからのローカライゼーションにマッチする。
対応する機能埋め込みと、自己教師付きイメージエンコーダからの埋め込みを同時に調整する。
論文 参考訳(メタデータ) (2021-06-08T17:39:14Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。