論文の概要: YOLO-SPCI: Enhancing Remote Sensing Object Detection via Selective-Perspective-Class Integration
- arxiv url: http://arxiv.org/abs/2505.21370v1
- Date: Tue, 27 May 2025 16:00:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.78
- Title: YOLO-SPCI: Enhancing Remote Sensing Object Detection via Selective-Perspective-Class Integration
- Title(参考訳): YOLO-SPCI:Selective-Perspective-Class Integrationによるリモートセンシングオブジェクト検出の実現
- Authors: Xinyuan Wang, Lian Peng, Xiangcheng Li, Yilin He, KinTak U,
- Abstract要約: YOLO-S PCIは、軽量なSelective-Perspective-Class Integrationモジュールを導入した注目度の高い検出フレームワークである。
YOLO-S PCIは最先端検出器と比較して優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 1.2815904071470707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in remote sensing imagery remains a challenging task due to extreme scale variation, dense object distributions, and cluttered backgrounds. While recent detectors such as YOLOv8 have shown promising results, their backbone architectures lack explicit mechanisms to guide multi-scale feature refinement, limiting performance on high-resolution aerial data. In this work, we propose YOLO-SPCI, an attention-enhanced detection framework that introduces a lightweight Selective-Perspective-Class Integration (SPCI) module to improve feature representation. The SPCI module integrates three components: a Selective Stream Gate (SSG) for adaptive regulation of global feature flow, a Perspective Fusion Module (PFM) for context-aware multi-scale integration, and a Class Discrimination Module (CDM) to enhance inter-class separability. We embed two SPCI blocks into the P3 and P5 stages of the YOLOv8 backbone, enabling effective refinement while preserving compatibility with the original neck and head. Experiments on the NWPU VHR-10 dataset demonstrate that YOLO-SPCI achieves superior performance compared to state-of-the-art detectors.
- Abstract(参考訳): リモートセンシング画像における物体検出は、極端なスケールの変動、密集した物体分布、乱雑な背景のため、依然として困難な課題である。
YOLOv8のような最近の検出器は有望な結果を示しているが、バックボーンのアーキテクチャはマルチスケールの特徴改善を導くための明確なメカニズムが欠如しており、高解像度の空中データの性能が制限されている。
本研究では,特徴表現を改善する軽量なSelective-Perspective-Class Integration (SPCI) モジュールを導入した,注目度の高い検出フレームワークであるYOLO-SPCIを提案する。
SPCIモジュールは、グローバルな特徴フローを適応的に制御するための選択ストリームゲート(SSG)、コンテキスト対応マルチスケール統合のためのパースペクティブフュージョンモジュール(PFM)、クラス間分離性を高めるためのクラス識別モジュール(CDM)の3つのコンポーネントを統合する。
2つのSPCIブロックをYOLOv8バックボーンのP3およびP5ステージに埋め込み、元のネックとヘッドとの互換性を維持しながら効果的な改善を可能にする。
NWPU VHR-10データセットの実験により、YOLO-SPCIは最先端の検出器よりも優れた性能を発揮することが示された。
関連論文リスト
- MASF-YOLO: An Improved YOLOv11 Network for Small Object Detection on Drone View [0.0]
マルチスケールコンテキストアグリゲーションとスケール適応型フュージョンYOLO(MASF-YOLO)を提案する。
UAV画像における小物体検出の難しさに対処するため,小型物体の検出精度を大幅に向上させるMFAM(Multi-scale Feature Aggregation Module)を設計した。
第3に,マルチスケール機能融合機能を強化したDASI(Dimension-Aware Selective Integration Module)を導入する。
論文 参考訳(メタデータ) (2025-04-25T07:43:33Z) - YOLO-RS: Remote Sensing Enhanced Crop Detection Methods [0.32985979395737786]
既存のターゲット検出手法は、リモートセンシング画像において、小さなターゲットを扱う際の性能が劣っている。
YOLO-RSは、小さなターゲットの検出を大幅に強化した最新のYolov11に基づいている。
リモートセンシング画像における小目標検出作業におけるYOLO-RSの有効性と適用可能性を検証する実験を行った。
論文 参考訳(メタデータ) (2025-04-15T13:13:22Z) - YOLO-PRO: Enhancing Instance-Specific Object Detection with Full-Channel Global Self-Attention [37.89051124090947]
本稿では,オブジェクト検出フレームワークにおける従来のボトルネック構造の本質的制約について論じる。
フルチャネルグローバル自己アテンション (ISB) を持つ Instance-Specific Bottleneck と Instance-Specific Asymmetric Decoupled Head (ISADH) の2つの新しいモジュールを提案する。
MS-COCOベンチマークの実験では、YOLO-PROフレームワークにおけるISBとISADHの協調配置により、全ての計算スケールで最先端のパフォーマンスが達成されている。
論文 参考訳(メタデータ) (2025-03-04T07:17:02Z) - What is YOLOv9: An In-Depth Exploration of the Internal Features of the Next-Generation Object Detector [0.0]
本研究は, YOLOv9オブジェクト検出モデルに焦点をあて, アーキテクチャの革新, トレーニング方法論, 性能改善に焦点をあてる。
汎用高効率層集約ネットワークGELANやProgrammable Gradient Information PGIといった重要な進歩は、特徴抽出と勾配流を著しく向上させる。
本稿では, YOLOv9の内部特徴とその実世界の応用性について, リアルタイム物体検出の最先端技術として確立した。
論文 参考訳(メタデータ) (2024-09-12T07:46:58Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Salient Object Detection in Optical Remote Sensing Images Driven by
Transformer [69.22039680783124]
光リモートセンシング画像(ORSI-SOD)のためのGlobal extract Local Exploration Network(GeleNet)を提案する。
具体的には、GeleNetはまずトランスフォーマーバックボーンを採用し、グローバルな長距離依存関係を持つ4レベルの機能埋め込みを生成する。
3つの公開データセットに関する大規模な実験は、提案されたGeleNetが関連する最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2023-09-15T07:14:43Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - Feature Aggregation and Propagation Network for Camouflaged Object
Detection [42.33180748293329]
カモフラージュされたオブジェクト検出(COD)は、環境に埋め込まれたカモフラージュされたオブジェクトを検出し、分離することを目的としている。
いくつかのCOD法が開発されているが, 前景オブジェクトと背景環境との固有の類似性により, 依然として不満足な性能に悩まされている。
カモフラージュされた物体検出のための新しい特徴集約・伝播ネットワーク(FAP-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:54:28Z) - Multi-Point Integrated Sensing and Communication: Fusion Model and
Functionality Selection [99.67715229413986]
本稿では,複数のISACデバイスからの出力を融合させて高感度化を実現する多点ISAC(MPISAC)システムを提案する。
我々は,仮説テストと最適投票分析により,融合精度を予測する融合モデルを採用する。
論文 参考訳(メタデータ) (2022-08-16T08:09:54Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - RGB-D Salient Object Detection with Cross-Modality Modulation and
Selection [126.4462739820643]
本稿では, RGB-D Salient Object Detection (SOD) において, モジュール間相補性を段階的に統合し, 改良する有効な方法を提案する。
提案するネットワークは,1)RGB画像とそれに対応する深度マップからの補完情報を効果的に統合する方法,および2)より精度の高い特徴を適応的に選択する方法の2つの課題を主に解決する。
論文 参考訳(メタデータ) (2020-07-14T14:22:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。