論文の概要: Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery
- arxiv url: http://arxiv.org/abs/2403.05381v1
- Date: Fri, 8 Mar 2024 15:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 13:14:44.101119
- Title: Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery
- Title(参考訳): 衛星画像におけるFew-Shotオブジェクト検出のためのロバストな特徴の探索
- Authors: Xavier Bou, Gabriele Facciolo, Rafael Grompone von Gioi, Jean-Michel
Morel, Thibaud Ehret
- Abstract要約: 従来の2段階アーキテクチャに基づく数発の物体検出器を開発した。
大規模な事前訓練モデルを使用して、クラス参照の埋め込みやプロトタイプを構築する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットの評価を行う。
- 参考スコア(独自算出の注目度): 17.156864650143678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this paper is to perform object detection in satellite imagery
with only a few examples, thus enabling users to specify any object class with
minimal annotation. To this end, we explore recent methods and ideas from
open-vocabulary detection for the remote sensing domain. We develop a few-shot
object detector based on a traditional two-stage architecture, where the
classification block is replaced by a prototype-based classifier. A large-scale
pre-trained model is used to build class-reference embeddings or prototypes,
which are compared to region proposal contents for label prediction. In
addition, we propose to fine-tune prototypes on available training images to
boost performance and learn differences between similar classes, such as
aircraft types. We perform extensive evaluations on two remote sensing datasets
containing challenging and rare objects. Moreover, we study the performance of
both visual and image-text features, namely DINOv2 and CLIP, including two CLIP
models specifically tailored for remote sensing applications. Results indicate
that visual features are largely superior to vision-language models, as the
latter lack the necessary domain-specific vocabulary. Lastly, the developed
detector outperforms fully supervised and few-shot methods evaluated on the
SIMD and DIOR datasets, despite minimal training parameters.
- Abstract(参考訳): 本研究の目的は,衛星画像におけるオブジェクト検出を少数の例で行うことで,最小限のアノテーションで任意のオブジェクトクラスを指定できるようにすることである。
そこで本研究では,リモートセンシング領域に対するオープン語彙検出の手法とアイデアについて検討する。
そこで我々は,従来の2段階アーキテクチャに基づく数発物体検出器を開発し,分類ブロックをプロトタイプベースの分類器に置き換えた。
大規模な事前学習モデルを用いて、ラベル予測のための領域提案内容と比較したクラス参照埋め込みやプロトタイプを構築する。
さらに,実機種別などの類似クラス間の差異を学習するために,利用可能な訓練画像のプロトタイプを微調整することを提案する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットに対して、広範囲な評価を行う。
さらに、リモートセンシングアプリケーションに特化した2つのCLIPモデルを含む、DINOv2とCLIPという視覚的および画像テキスト機能の性能について検討した。
その結果、視覚的特徴は視覚言語モデルよりも優れていることが示唆された。
最後に、開発した検出器は、最小限のトレーニングパラメータにもかかわらず、SIMDおよびDIORデータセットで評価された完全な教師付きおよび少数ショットの手法より優れている。
関連論文リスト
- Exploiting Unlabeled Data with Multiple Expert Teachers for Open Vocabulary Aerial Object Detection and Its Orientation Adaptation [58.37525311718006]
OVAD(Open-vocabulary Aero Object Detection)という,航空物体検出問題の新しい定式化を行った。
本稿では,CLIP-activated students-Teacher DetectionフレームワークであるCastDetを提案する。
本フレームワークは,ロバストなローカライズ教師といくつかのボックス選択戦略を統合し,新しいオブジェクトの高品質な提案を生成する。
論文 参考訳(メタデータ) (2024-11-04T12:59:13Z) - Few-shot Oriented Object Detection with Memorable Contrastive Learning in Remote Sensing Images [11.217630579076237]
リモートセンシングの分野では、FSOD(Few-shot Object Detection)が注目されている。
本稿では,Few-shot Oriented Object Detection with Memorable Contrastive Learning (FOMC) という,リモートセンシングのための新しいFSOD法を提案する。
具体的には、従来の水平有界ボックスの代わりに指向的有界ボックスを用いて、任意指向の空中オブジェクトのより優れた特徴表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T08:15:18Z) - Exploiting Unlabeled Data with Vision and Language Models for Object
Detection [64.94365501586118]
堅牢で汎用的なオブジェクト検出フレームワークを構築するには、より大きなラベルスペースとより大きなトレーニングデータセットへのスケーリングが必要である。
本稿では,近年の視覚と言語モデルで利用可能なリッチなセマンティクスを利用して,未ラベル画像中のオブジェクトのローカライズと分類を行う手法を提案する。
生成した擬似ラベルの価値を,オープン語彙検出と半教師付きオブジェクト検出の2つのタスクで示す。
論文 参考訳(メタデータ) (2022-07-18T21:47:15Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Few-shot Object Detection with Feature Attention Highlight Module in
Remote Sensing Images [10.92844145381214]
本報告では, ごく少数の例に基づいて, 新規な物体を検出するために設計された, 数発の物体検出器を提案する。
我々のモデルは、特徴抽出器、特徴強調強調モジュール、および2段階検出バックエンドで構成されている。
提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-03T12:38:49Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - Few-shot Object Detection on Remote Sensing Images [11.40135025181393]
リモートセンシング画像におけるオブジェクト検出のための数ショットの学習手法を提案する。
我々は、YOLOv3アーキテクチャに基づいて、少数ショットオブジェクト検出モデルを構築し、マルチスケールオブジェクト検出フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-14T07:18:10Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。