論文の概要: LuSeg: Efficient Negative and Positive Obstacles Segmentation via Contrast-Driven Multi-Modal Feature Fusion on the Lunar
- arxiv url: http://arxiv.org/abs/2503.11409v1
- Date: Fri, 14 Mar 2025 13:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:05:57.851653
- Title: LuSeg: Efficient Negative and Positive Obstacles Segmentation via Contrast-Driven Multi-Modal Feature Fusion on the Lunar
- Title(参考訳): LuSeg: コントラスト駆動型マルチモーダル特徴フュージョンによる効率的な否定的・肯定的障害物分割
- Authors: Shuaifeng Jiao, Zhiwen Zeng, Zhuoqun Su, Xieyuanli Chen, Zongtan Zhou, Huimin Lu,
- Abstract要約: 我々は月面探査シミュレータ(LESS)と呼ばれる月面シミュレーションシステムを開発した。
また,LuSegと呼ばれる新しい2段階セグメンテーションネットワークを提案する。
LuSegはステージIのRGBエンコーダとステージIIの深さのセマンティック一貫性を強制する。
- 参考スコア(独自算出の注目度): 8.215362367428565
- License:
- Abstract: As lunar exploration missions grow increasingly complex, ensuring safe and autonomous rover-based surface exploration has become one of the key challenges in lunar exploration tasks. In this work, we have developed a lunar surface simulation system called the Lunar Exploration Simulator System (LESS) and the LunarSeg dataset, which provides RGB-D data for lunar obstacle segmentation that includes both positive and negative obstacles. Additionally, we propose a novel two-stage segmentation network called LuSeg. Through contrastive learning, it enforces semantic consistency between the RGB encoder from Stage I and the depth encoder from Stage II. Experimental results on our proposed LunarSeg dataset and additional public real-world NPO road obstacle dataset demonstrate that LuSeg achieves state-of-the-art segmentation performance for both positive and negative obstacles while maintaining a high inference speed of approximately 57\,Hz. We have released the implementation of our LESS system, LunarSeg dataset, and the code of LuSeg at:https://github.com/nubot-nudt/LuSeg.
- Abstract(参考訳): 月探査ミッションが複雑化するにつれて、安全かつ自律的なローバーベースの表面探査が月探査における重要な課題の1つとなっている。
本研究では,LESS(Lunar Exploration Simulator System)とLunarSegデータセットという月面シミュレーションシステムを開発した。
また,LuSegと呼ばれる2段階分割ネットワークを提案する。
対照的な学習を通じて、RGBエンコーダ(Stage I)とDeep Encoder(Stage II)のセマンティック一貫性を強制する。
提案したLunarSegデータセットとNPO道路障害物データセットによる実験結果から,LunarSegは約57\,Hzの高推論速度を維持しながら,正および負の両方の障害物に対して最先端のセグメンテーション性能を実現することを示した。
LESSシステム、LunarSegデータセット、およびLuSegのコードの実装をhttps://github.com/nubot-nudt/LuSegでリリースしました。
関連論文リスト
- MoonMetaSync: Lunar Image Registration Analysis [1.5371340850225041]
本稿では,新しい特徴検出器であるIntFeatとともに,SIFT(Scale-incubic)とORB(Scale-variant)の特徴検出法を比較した。
本研究では,低 (128x128) と高分解能 (1024x1024) の月面画像パッチを用いてこれらの手法の評価を行い,地球外環境への挑戦において,その性能について考察した。
IntFeatはSIFTの高レベルな特徴とORBの低レベルな特徴を組み合わせることで、堅牢な月面画像登録を実現する。
論文 参考訳(メタデータ) (2024-10-14T22:05:48Z) - Synthetic Lunar Terrain: A Multimodal Open Dataset for Training and Evaluating Neuromorphic Vision Algorithms [18.85150427551313]
SLT(Synthetic Lunar Terrain)は、月探査のための類似試験場から収集されたオープンデータセットである。
イベントベースおよび従来のRGBカメラからの複数のサイドバイサイドキャプチャを含む。
イベントベースカメラのニューロモルフィック視覚センサから記録されるイベントストリームは特に興味深い。
論文 参考訳(メタデータ) (2024-08-30T02:14:33Z) - LuSNAR:A Lunar Segmentation, Navigation and Reconstruction Dataset based on Muti-sensor for Autonomous Exploration [2.3011380360879237]
環境認識とナビゲーションアルゴリズムが月探査の基盤となっている。
既存の月のデータセットのほとんどは、単一のタスクをターゲットにしています。
本稿では,マルチタスク,マルチシーン,マルチラベルのベンチマークデータセットLuSNARを提案する。
論文 参考訳(メタデータ) (2024-07-09T02:47:58Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - AstroSLAM: Autonomous Monocular Navigation in the Vicinity of a
Celestial Small Body -- Theory and Experiments [13.14201332737947]
我々は、未知の小さな天体の周囲に自律的なオンラインナビゲーションを行うための視覚ベースのソリューションを提案する。
AstroSLAM は GTSAM ライブラリと iSAM2 エンジンを用いることにより, SLAM 問題を段階的に増大する因子グラフとして定式化する。
本研究では, 軌道運動の制約を因子グラフに組み込むことで, 宇宙船の相対的な姿勢と小型物体近傍の宇宙船の運動から生じる軌道の予測問題とを関連付ける新しい相対力学因子を考案する。
論文 参考訳(メタデータ) (2022-12-01T08:24:21Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - Think Global, Act Local: Dual-scale Graph Transformer for
Vision-and-Language Navigation [87.03299519917019]
本稿では,2次元グラフ変換器 (DUET) を提案する。
我々は,グローバルな行動空間における効率的な探索を可能にするために,トポロジカルマップをオンザフライで構築する。
提案手法であるDUETは、目標指向の視覚・言語ナビゲーションベンチマークにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-23T19:06:53Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Unsupervised Distribution Learning for Lunar Surface Anomaly Detection [0.0]
月面リモートセンシングデータに,現代のデータ駆動機械学習技術がうまく適用可能であることを示す。
特に、アポロ15号の着陸モジュールを見つけるために、教師なし分布学習ニューラルネットワークモデルを訓練する。
論文 参考訳(メタデータ) (2020-01-14T05:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。