論文の概要: Instance Localization for Self-supervised Detection Pretraining
- arxiv url: http://arxiv.org/abs/2102.08318v1
- Date: Tue, 16 Feb 2021 17:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:03:23.688643
- Title: Instance Localization for Self-supervised Detection Pretraining
- Title(参考訳): 自己監視型検出前訓練のためのインスタンスローカリゼーション
- Authors: Ceyuan Yang, Zhirong Wu, Bolei Zhou, Stephen Lin
- Abstract要約: インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
- 参考スコア(独自算出の注目度): 68.24102560821623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research on self-supervised learning has led to considerable progress
on image classification, but often with degraded transfer performance on object
detection. The objective of this paper is to advance self-supervised pretrained
models specifically for object detection. Based on the inherent difference
between classification and detection, we propose a new self-supervised pretext
task, called instance localization. Image instances are pasted at various
locations and scales onto background images. The pretext task is to predict the
instance category given the composited images as well as the foreground
bounding boxes. We show that integration of bounding boxes into pretraining
promotes better task alignment and architecture alignment for transfer
learning. In addition, we propose an augmentation method on the bounding boxes
to further enhance the feature alignment. As a result, our model becomes weaker
at Imagenet semantic classification but stronger at image patch localization,
with an overall stronger pretrained model for object detection. Experimental
results demonstrate that our approach yields state-of-the-art transfer learning
results for object detection on PASCAL VOC and MSCOCO.
- Abstract(参考訳): 自己教師付き学習に関する以前の研究は、画像分類においてかなりの進歩をもたらしたが、しばしばオブジェクト検出における劣化した転送性能をもたらす。
本論文の目的は、オブジェクト検出に特化した自己監視型事前訓練モデルを推進することである。
分類と検出の固有の違いに基づいて,インスタンスローカライゼーションと呼ばれる新しい自己教師付きプリテキストタスクを提案する。
画像インスタンスは様々な場所でペーストされ、背景画像にスケールされる。
プリテキストタスクは、合成画像と前景境界ボックスが与えられたインスタンスカテゴリを予測することである。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
さらに,機能アライメントをさらに強化するために,境界ボックス上の拡張手法を提案する。
その結果、画像ネットのセマンティクス分類では弱くなるが、画像パッチのローカライズでは強くなり、オブジェクト検出のためのより強固な事前学習モデルが得られた。
実験の結果,PASCAL VOCおよびMSCOCOにおける物体検出のための最先端の移動学習結果が得られた。
関連論文リスト
- Few-Shot Object Detection with Sparse Context Transformers [37.106378859592965]
少ないショット検出は、少ないラベル付きデータでトレーニングされたモデルを使用してオブジェクトをローカライズするパターン認識における主要なタスクである。
本稿では,ソース領域におけるオブジェクトの知識を効果的に活用し,対象領域内の少数のトレーニング画像からスパースコンテキストを自動的に学習する新しいスパースコンテキスト変換器を提案する。
提案手法を2つの難易度オブジェクト検出ベンチマークで評価し,提案手法が関連する最先端技術と比較して競合性能を得ることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-02-14T17:10:01Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - CoDo: Contrastive Learning with Downstream Background Invariance for
Detection [10.608660802917214]
下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-10T01:26:15Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。