論文の概要: Proposal-Contrastive Pretraining for Object Detection from Fewer Data
- arxiv url: http://arxiv.org/abs/2310.16835v1
- Date: Wed, 25 Oct 2023 17:59:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 13:01:25.323539
- Title: Proposal-Contrastive Pretraining for Object Detection from Fewer Data
- Title(参考訳): 低値データからの物体検出のためのコントラスト事前学習の提案
- Authors: Quentin Bouniot, Romaric Audigier, Ang\'elique Loesch, Amaury Habrard
- Abstract要約: 本稿では,新しい教師なし総合事前学習手法ProSeCoを提案する。
ProSeCoは、コントラスト学習のために検出器によって生成される多数のオブジェクト提案を使用する。
本手法は,標準および新しいベンチマークにおいて,対象検出のための教師なし事前学習において,最先端の手法であることを示す。
- 参考スコア(独自算出の注目度): 11.416621957617334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of pretrained deep neural networks represents an attractive way to
achieve strong results with few data available. When specialized in dense
problems such as object detection, learning local rather than global
information in images has proven to be more efficient. However, for
unsupervised pretraining, the popular contrastive learning requires a large
batch size and, therefore, a lot of resources. To address this problem, we are
interested in transformer-based object detectors that have recently gained
traction in the community with good performance and with the particularity of
generating many diverse object proposals.
In this work, we present Proposal Selection Contrast (ProSeCo), a novel
unsupervised overall pretraining approach that leverages this property. ProSeCo
uses the large number of object proposals generated by the detector for
contrastive learning, which allows the use of a smaller batch size, combined
with object-level features to learn local information in the images. To improve
the effectiveness of the contrastive loss, we introduce the object location
information in the selection of positive examples to take into account multiple
overlapping object proposals. When reusing pretrained backbone, we advocate for
consistency in learning local information between the backbone and the
detection head.
We show that our method outperforms state of the art in unsupervised
pretraining for object detection on standard and novel benchmarks in learning
with fewer data.
- Abstract(参考訳): 事前訓練されたディープニューラルネットワークの使用は、少ないデータで強力な結果を得るための魅力的な方法である。
物体検出などの密集した問題に特化する場合、画像のグローバル情報よりも局所的な学習の方が効率的であることが証明されている。
しかし、教師なし事前学習の場合、一般的なコントラスト学習はバッチサイズが大きく、そのため多くのリソースを必要とする。
この問題に対処するため,我々は,近年,多くの多種多様なオブジェクト提案の生成に特化して,コミュニティで注目を集めているトランスフォーマーベースのオブジェクト検出器に興味を持っている。
そこで本研究では,この性質を生かした非教師なし全体の事前学習手法であるpromise selection contrast (proseco)を提案する。
ProSeCoは、コントラスト学習のために検出器によって生成された多数のオブジェクト提案を使用し、より小さなバッチサイズとオブジェクトレベルの特徴を組み合わせて画像内のローカル情報を学ぶことができる。
比較的損失の有効性を向上させるため,複数の重複するオブジェクト提案を考慮したポジティブな例の選択において,対象位置情報を導入する。
トレーニング済みのバックボーンを再利用する場合,バックボーンと検出ヘッドの局所的情報学習における一貫性を提唱する。
本手法は, 標準および新しいベンチマークを用いた教師なし事前学習において, 少ないデータで学習する上で, 最先端の技術に勝ることを示す。
関連論文リスト
- Few-Shot Object Detection with Sparse Context Transformers [37.106378859592965]
少ないショット検出は、少ないラベル付きデータでトレーニングされたモデルを使用してオブジェクトをローカライズするパターン認識における主要なタスクである。
本稿では,ソース領域におけるオブジェクトの知識を効果的に活用し,対象領域内の少数のトレーニング画像からスパースコンテキストを自動的に学習する新しいスパースコンテキスト変換器を提案する。
提案手法を2つの難易度オブジェクト検出ベンチマークで評価し,提案手法が関連する最先端技術と比較して競合性能を得ることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-02-14T17:10:01Z) - Improved Region Proposal Network for Enhanced Few-Shot Object Detection [23.871860648919593]
Few-shot Object Detection (FSOD) メソッドは、古典的なオブジェクト検出手法の限界に対する解決策として登場した。
FSODトレーニング段階において,未ラベルの新規物体を正のサンプルとして検出し,利用するための半教師付きアルゴリズムを開発した。
地域提案ネットワーク(RPN)の階層的サンプリング戦略の改善により,大規模オブジェクトに対するオブジェクト検出モデルの認識が向上する。
論文 参考訳(メタデータ) (2023-08-15T02:35:59Z) - Identification of Novel Classes for Improving Few-Shot Object Detection [12.013345715187285]
Few-shot Object Detection (FSOD) メソッドは、クラス毎に少数のトレーニングサンプルのみを使用して、堅牢なオブジェクト検出を実現することで、改善を提供する。
我々は、FSOD性能を向上させるためのトレーニング中に、未ラベルの新規物体を正のサンプルとして検出し、利用するための半教師付きアルゴリズムを開発した。
実験の結果,本手法は既存のSOTA FSOD法よりも有効であり,優れた結果が得られた。
論文 参考訳(メタデータ) (2023-03-18T14:12:52Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - CoDo: Contrastive Learning with Downstream Background Invariance for
Detection [10.608660802917214]
下流背景不変性(CoDo)を用いたコントラスト学習という,オブジェクトレベルの自己教師型学習手法を提案する。
プリテキストタスクは、さまざまなバックグラウンド、特に下流データセットのインスタンス位置モデリングに集中するように変換される。
MSCOCOの実験では、共通のバックボーンを持つCoDoであるResNet50-FPNが、オブジェクト検出に強力な転送学習結果をもたらすことを示した。
論文 参考訳(メタデータ) (2022-05-10T01:26:15Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - Aligning Pretraining for Detection via Object-Level Contrastive Learning [57.845286545603415]
画像レベルのコントラスト表現学習は、伝達学習の汎用モデルとして非常に有効であることが証明されている。
我々は、これは準最適である可能性があり、従って、自己教師付きプレテキストタスクと下流タスクのアライメントを促進する設計原則を提唱する。
Selective Object Contrastive Learning (SoCo) と呼ばれる本手法は,COCO検出における伝達性能の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-04T17:59:52Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。