論文の概要: CoDo: Contrastive Learning with Downstream Background Invariance for
Detection
- arxiv url: http://arxiv.org/abs/2205.04617v1
- Date: Tue, 10 May 2022 01:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 22:59:03.112110
- Title: CoDo: Contrastive Learning with Downstream Background Invariance for
Detection
- Title(参考訳): codo: 下流の背景不変性を用いたコントラスト学習
- Authors: Bing Zhao, Jun Li and Hong Zhu
- Abstract要約: 下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
- 参考スコア(独自算出の注目度): 10.608660802917214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prior self-supervised learning researches mainly select image-level
instance discrimination as pretext task. It achieves a fantastic classification
performance that is comparable to supervised learning methods. However, with
degraded transfer performance on downstream tasks such as object detection. To
bridge the performance gap, we propose a novel object-level self-supervised
learning method, called Contrastive learning with Downstream background
invariance (CoDo). The pretext task is converted to focus on instance location
modeling for various backgrounds, especially for downstream datasets. The
ability of background invariance is considered vital for object detection.
Firstly, a data augmentation strategy is proposed to paste the instances onto
background images, and then jitter the bounding box to involve background
information. Secondly, we implement architecture alignment between our
pretraining network and the mainstream detection pipelines. Thirdly,
hierarchical and multi views contrastive learning is designed to improve
performance of visual representation learning. Experiments on MSCOCO
demonstrate that the proposed CoDo with common backbones, ResNet50-FPN, yields
strong transfer learning results for object detection.
- Abstract(参考訳): 先行した自己教師付き学習研究は、主に前文課題として画像レベルのインスタンス識別を選択する。
教師あり学習法に匹敵する素晴らしい分類性能を達成している。
しかし、オブジェクト検出などの下流タスクでは、転送性能が低下する。
パフォーマンスギャップを埋めるために,コントラスト学習と下流背景不変性(codo)という,オブジェクトレベルの自己教師付き学習手法を提案する。
pretextタスクは、さまざまなバックグラウンド、特にダウンストリームデータセットのインスタンスロケーションモデリングにフォーカスするように変換される。
背景不変性の能力は物体検出に不可欠であると考えられている。
まず、背景画像にインスタンスをペーストし、境界ボックスをいじって背景情報を含むデータ拡張戦略を提案する。
次に,事前学習ネットワークとメインストリーム検出パイプライン間のアーキテクチャアライメントを実装した。
第3に、階層的および多視点のコントラスト学習は、視覚的表現学習のパフォーマンスを向上させるように設計されている。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
関連論文リスト
- Proposal-Contrastive Pretraining for Object Detection from Fewer Data [11.416621957617334]
本稿では,新しい教師なし総合事前学習手法ProSeCoを提案する。
ProSeCoは、コントラスト学習のために検出器によって生成される多数のオブジェクト提案を使用する。
本手法は,標準および新しいベンチマークにおいて,対象検出のための教師なし事前学習において,最先端の手法であることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:59:26Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。