論文の概要: SCAFusion: A Multimodal 3D Detection Framework for Small Object Detection in Lunar Surface Exploration
- arxiv url: http://arxiv.org/abs/2512.22503v1
- Date: Sat, 27 Dec 2025 07:08:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.088731
- Title: SCAFusion: A Multimodal 3D Detection Framework for Small Object Detection in Lunar Surface Exploration
- Title(参考訳): SCAFusion:月面探査における小型物体検出のためのマルチモーダル3次元検出フレームワーク
- Authors: Xin Chen, Kang Luo, Yangyi Xiao, Hesheng Wang,
- Abstract要約: 本稿では,月面ロボット探査に適したマルチモーダル3次元物体検出モデルであるSCAFusionを提案する。
パラメータの無視的増加により,本モデルは nuScenes 検証セット上で69.7% mAP と72.1% NDS を達成する。
アイザック・シム (Isaac Sim) で作られた模擬月面環境では、SCAFusion は 90.93% mAP に達し、ベースラインを 11.5% 上回っている。
- 参考スコア(独自算出の注目度): 18.857802421595235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable and precise detection of small and irregular objects, such as meteor fragments and rocks, is critical for autonomous navigation and operation in lunar surface exploration. Existing multimodal 3D perception methods designed for terrestrial autonomous driving often underperform in off world environments due to poor feature alignment, limited multimodal synergy, and weak small object detection. This paper presents SCAFusion, a multimodal 3D object detection model tailored for lunar robotic missions. Built upon the BEVFusion framework, SCAFusion integrates a Cognitive Adapter for efficient camera backbone tuning, a Contrastive Alignment Module to enhance camera LiDAR feature consistency, a Camera Auxiliary Training Branch to strengthen visual representation, and most importantly, a Section aware Coordinate Attention mechanism explicitly designed to boost the detection performance of small, irregular targets. With negligible increase in parameters and computation, our model achieves 69.7% mAP and 72.1% NDS on the nuScenes validation set, improving the baseline by 5.0% and 2.7%, respectively. In simulated lunar environments built on Isaac Sim, SCAFusion achieves 90.93% mAP, outperforming the baseline by 11.5%, with notable gains in detecting small meteor like obstacles.
- Abstract(参考訳): 隕石の破片や岩などの小型で不規則な天体の信頼性と正確な検出は、月面探査における自律的な航行と操作に重要である。
地上での自律運転用に設計された既存のマルチモーダル3D認識手法は、機能アライメントの貧弱さ、マルチモーダルのシナジーの制限、弱い小さな物体検出などにより、オフワールド環境では性能が劣ることが多い。
本稿では,月面ロボット探査に適したマルチモーダル3次元物体検出モデルであるSCAFusionを提案する。
BEVFusionフレームワーク上に構築されたSCAFusionは、効率的なカメラバックボーンチューニングのためのCognitive Adapter、カメラのLiDAR機能一貫性を強化するContrastive Alignment Module、視覚的表現を強化するカメラ補助訓練ブランチ、そして最も重要なのは、小さな不規則なターゲットの検出性能を明示的に向上するように設計されたセクション認識調整機構を統合している。
パラメータおよび計算の無視的増加により,本モデルでは, nuScenesバリデーションセット上で69.7% mAPと72.1% NDSを達成し, ベースラインを5.0%, 2.7%向上させた。
アイザック・シム (Isaac Sim) 上に構築された模擬月面環境において、SCAFusion は 90.93% mAP を達成し、ベースラインを 11.5% 上回った。
関連論文リスト
- TransBridge: Boost 3D Object Detection by Scene-Level Completion with Transformer Decoder [66.22997415145467]
本稿では,スパース領域における検出機能を改善する共同補完・検出フレームワークを提案する。
具体的には,トランスブリッジ(TransBridge)を提案する。トランスブリッジ(TransBridge)はトランスフォーマーをベースとした新しいアップサンプリングブロックである。
その結果,本フレームワークは,各手法の平均精度(mAP)が0.7から1.5の範囲で,エンドツーエンドの3Dオブジェクト検出を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-12-12T00:08:03Z) - FBRT-YOLO: Faster and Better for Real-Time Aerial Image Detection [21.38164867490915]
そこで本研究では,FBRT-YOLOと呼ばれる空中画像検出用リアルタイム検出器のファミリーを提案し,検出精度と効率の相違に対処する。
FCMは、ディープネットワークにおける小さなターゲット情報の損失に起因する情報不均衡の問題を軽減することに焦点を当てている。
MKPは異なる大きさのカーネルとの畳み込みを利用して、様々なスケールのターゲット間の関係を強化する。
論文 参考訳(メタデータ) (2025-04-29T11:53:54Z) - MASF-YOLO: An Improved YOLOv11 Network for Small Object Detection on Drone View [0.0]
マルチスケールコンテキストアグリゲーションとスケール適応型フュージョンYOLO(MASF-YOLO)を提案する。
UAV画像における小物体検出の難しさに対処するため,小型物体の検出精度を大幅に向上させるMFAM(Multi-scale Feature Aggregation Module)を設計した。
第3に,マルチスケール機能融合機能を強化したDASI(Dimension-Aware Selective Integration Module)を導入する。
論文 参考訳(メタデータ) (2025-04-25T07:43:33Z) - Efficient Oriented Object Detection with Enhanced Small Object Recognition in Aerial Images [2.9138705529771123]
本稿では,オブジェクト指向物体検出タスクに適したYOLOv8モデルを新たに拡張する。
本モデルでは,ASFP(Adaptive Scale Feature Pyramid)モジュールと,P2層の詳細を利用したウェーブレット変換に基づくC2fモジュールを特徴とする。
我々のアプローチは233万のパラメータを持つDecoupleNetよりも効率的なアーキテクチャ設計を提供し、検出精度を維持しています。
論文 参考訳(メタデータ) (2024-12-17T05:45:48Z) - SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。