論文の概要: Transformation-Invariant Network for Few-Shot Object Detection in Remote
Sensing Images
- arxiv url: http://arxiv.org/abs/2303.06817v1
- Date: Mon, 13 Mar 2023 02:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:51:23.491426
- Title: Transformation-Invariant Network for Few-Shot Object Detection in Remote
Sensing Images
- Title(参考訳): リモートセンシング画像における極小物体検出のための変換不変ネットワーク
- Authors: Nanqing Liu, Xun Xu, Turgay Celik, Zongxin Gan, Heng-Chao Li
- Abstract要約: Few-shot Object Detection (FSOD) はこの問題に対処するために、見知らぬベースクラスでメタラーニングを行い、ラベル付きサンプルがほとんどない新しいクラスで微調整する。
これらの課題に対処するために、私たちはまず、機能ピラミッドネットワークを統合し、クエリ機能を強調するためにプロトタイプ機能を使用することを提案します。
配向変動のロバスト性を改善するために,ネットワークを幾何変換に不変にするための変換不変ネットワーク(TINet)を提案する。
- 参考スコア(独自算出の注目度): 11.362079241571179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in remote sensing images relies on a large amount of labeled
data for training. The growing new categories and class imbalance render
exhaustive annotation non-scalable. Few-shot object detection~(FSOD) tackles
this issue by meta-learning on seen base classes and then fine-tuning on novel
classes with few labeled samples. However, the object's scale and orientation
variations are particularly large in remote sensing images, thus posing
challenges to existing few-shot object detection methods. To tackle these
challenges, we first propose to integrate a feature pyramid network and use
prototype features to highlight query features to improve upon existing FSOD
methods. We refer to the modified FSOD as a Strong Baseline which is
demonstrated to perform significantly better than the original baselines. To
improve the robustness of orientation variation, we further propose a
transformation-invariant network (TINet) to allow the network to be invariant
to geometric transformations. Extensive experiments on three widely used remote
sensing object detection datasets, i.e., NWPU VHR-10.v2, DIOR, and HRRSD
demonstrated the effectiveness of the proposed method. Finally, we reproduced
multiple FSOD methods for remote sensing images to create an extensive
benchmark for follow-up works.
- Abstract(参考訳): リモートセンシング画像におけるオブジェクト検出は、トレーニングのために大量のラベル付きデータに依存する。
成長する新しいカテゴリとクラス不均衡は、徹底的なアノテーションをスケーリング不能にします。
Few-shot Object Detection~(FSOD)は、目に見えるベースクラスでメタ学習を行い、ラベル付きサンプルがほとんどない新しいクラスで微調整することでこの問題に取り組む。
しかし、オブジェクトのスケールと向きのバリエーションは、リモートセンシング画像では特に大きいため、既存の少数ショットオブジェクト検出方法に課題が生じる。
これらの課題に対処するために,我々はまず,機能ピラミッドネットワークを統合して,既存のFSODメソッドを改善するためにクエリ機能を強調するプロトタイプ機能を提案する。
改良されたFSODをStrong Baselineと呼び、元のベースラインよりもはるかに優れた性能を示す。
さらに,向き変化のロバスト性を向上させるために,ネットワークを幾何学的変換に不変にする変換不変ネットワーク(tinet)を提案する。
NWPU VHR-10.v2, DIOR, HRRSDの3つのリモートセンシングオブジェクト検出データセットの大規模な実験により,提案手法の有効性が示された。
最後に,リモートセンシング画像のための複数のfsod手法を再現し,追従作業のための広範なベンチマークを作成した。
関連論文リスト
- Few-shot Oriented Object Detection with Memorable Contrastive Learning in Remote Sensing Images [11.217630579076237]
リモートセンシングの分野では、FSOD(Few-shot Object Detection)が注目されている。
本稿では,Few-shot Oriented Object Detection with Memorable Contrastive Learning (FOMC) という,リモートセンシングのための新しいFSOD法を提案する。
具体的には、従来の水平有界ボックスの代わりに指向的有界ボックスを用いて、任意指向の空中オブジェクトのより優れた特徴表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T08:15:18Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Hi-ResNet: Edge Detail Enhancement for High-Resolution Remote Sensing Segmentation [10.919956120261539]
高分解能リモートセンシング(HRS)セマンティックセマンティクスは、高分解能カバレッジ領域からキーオブジェクトを抽出する。
HRS画像内の同じカテゴリのオブジェクトは、多様な地理的環境におけるスケールと形状の顕著な違いを示す。
効率的なネットワーク構造を持つ高分解能リモートセンシングネットワーク(Hi-ResNet)を提案する。
論文 参考訳(メタデータ) (2023-05-22T03:58:25Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - I^3Net: Implicit Instance-Invariant Network for Adapting One-Stage
Object Detectors [64.93963042395976]
暗黙のInstance-Invariant Network(I3Net)は、ワンステージ検出器の適応に適しています。
i3netは、異なる層における深い特徴の自然な特徴を利用してインスタンス不変な特徴を暗黙的に学習する。
実験によると、I3Netはベンチマークデータセットの最先端のパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2021-03-25T11:14:36Z) - CFC-Net: A Critical Feature Capturing Network for Arbitrary-Oriented
Object Detection in Remote Sensing Images [0.9462808515258465]
本稿では,物体検出における識別的特徴の役割について論じる。
次に,検出精度を向上させるために,cfc-net (critical feature capture network) を提案する。
本手法は多くの最先端手法と比較して優れた検出性能が得られることを示す。
論文 参考訳(メタデータ) (2021-01-18T02:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。