論文の概要: Strip R-CNN: Large Strip Convolution for Remote Sensing Object Detection
- arxiv url: http://arxiv.org/abs/2501.03775v1
- Date: Tue, 07 Jan 2025 13:30:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:25.389611
- Title: Strip R-CNN: Large Strip Convolution for Remote Sensing Object Detection
- Title(参考訳): Strip R-CNN: リモートセンシングオブジェクト検出のための大規模ストリップ畳み込み
- Authors: Xinbin Yuan, ZhaoHui Zheng, Yuxuan Li, Xialei Liu, Li Liu, Xiang Li, Qibin Hou, Ming-Ming Cheng,
- Abstract要約: 本稿では,リモートセンシングオブジェクト検出において,大きなストリップ畳み込みが優れた特徴表現学習者であることを示す。
我々はStrip R-CNNと呼ばれる,シンプルで効率的でパワフルなネットワークアーキテクチャを構築した。
- 参考スコア(独自算出の注目度): 74.01846006894635
- License:
- Abstract: While witnessed with rapid development, remote sensing object detection remains challenging for detecting high aspect ratio objects. This paper shows that large strip convolutions are good feature representation learners for remote sensing object detection and can detect objects of various aspect ratios well. Based on large strip convolutions, we build a new network architecture called Strip R-CNN, which is simple, efficient, and powerful. Unlike recent remote sensing object detectors that leverage large-kernel convolutions with square shapes, our Strip R-CNN takes advantage of sequential orthogonal large strip convolutions to capture spatial information. In addition, we enhance the localization capability of remote-sensing object detectors by decoupling the detection heads and equipping the localization head with strip convolutions to better localize the target objects. Extensive experiments on several benchmarks, e.g., DOTA, FAIR1M, HRSC2016, and DIOR, show that our Strip R-CNN can largely improve previous works. Notably, our 30M model achieves 82.75% mAP on DOTA-v1.0, setting a new state-of-the-art record.Code is available at https://github.com/YXB-NKU/Strip-R-CNN.
- Abstract(参考訳): 迅速な開発が見られたが、高アスペクト比の物体を検出するにはリモートセンシングオブジェクト検出が依然として困難である。
本稿では,リモートセンシングオブジェクト検出において,大きなストリップ畳み込みは優れた特徴表現学習者であり,様々なアスペクト比のオブジェクトを検出できることを示す。
大規模なストリップ畳み込みに基づいて,Strip R-CNNと呼ばれる,シンプルで効率的かつパワフルなネットワークアーキテクチャを構築した。
我々のStrip R-CNNは、最近のリモートセンシングオブジェクト検出器とは異なり、空間情報を捉えるために直交する大きなストリップ畳み込みを利用する。
さらに,検出ヘッドを分離し,位置決めヘッドにストリップ畳み込みを施し,対象物体の局所化を改善することで,リモートセンシング対象検出器の局所化能力を向上する。
例えば、DOTA、FAIR1M、HRSC2016、DIORといったベンチマークに関する大規模な実験は、私たちのStrip R-CNNが以前の作業を大幅に改善できることを示している。
特に、我々の30MモデルはDOTA-v1.0上で82.75%のmAPを達成し、新しい最先端のレコードを設定します。
関連論文リスト
- A DeNoising FPN With Transformer R-CNN for Tiny Object Detection [25.892598910922004]
そこで本稿では,Trans R-CNN (DNTR) を用いたFPNのデノベーション手法を提案する。
DNTRは、簡単なプラグイン設計、DeNoising FPN (DN-FPN)、効果的なTransformerベースの検出器であるTrans R-CNNで構成されている。
我々は、古いR-CNN検出器を新しいTrans R-CNN検出器に置き換え、自己注意を持つ小さな物体の表現に集中する。
論文 参考訳(メタデータ) (2024-06-09T12:18:15Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - Broad Area Search and Detection of Surface-to-Air Missile Sites Using
Spatial Fusion of Component Object Detections from Deep Neural Networks [7.24548168665473]
複数またはコンポーネントオブジェクトのディープニューラルネットワーク(DNN)検出は、より大きな複雑な機能の検索、検出、検索(ランク付け)を改善するために空間的に融合することができる。
本手法は中国における9万km2の地表面対空ミサイル(SAM)の広い地域探索と検出に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-23T22:10:19Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。