論文の概要: Real-Time Obstacle Avoidance for a Mobile Robot Using CNN-Based Sensor Fusion
- arxiv url: http://arxiv.org/abs/2509.08095v1
- Date: Tue, 09 Sep 2025 19:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.234011
- Title: Real-Time Obstacle Avoidance for a Mobile Robot Using CNN-Based Sensor Fusion
- Title(参考訳): CNN型センサフュージョンを用いた移動ロボットのリアルタイム障害物回避
- Authors: Lamiaa H. Zain, Raafat E. Shalaby,
- Abstract要約: 3つの畳み込みニューラルネットワーク(CNN)をトレーニングし、オフラインで評価し、リアルタイム障害物回避のための差動駆動型移動ロボットにデプロイした。
オフライン評価の結果、NetConEmbモデルは特に低いMedAEが0.58×10-3$ rad/sで最高の性能を示した。
対照的に、より軽量なNetEmbアーキテクチャは、RMSEが21.68倍 10-3$ rad/sで、NetConEmbが取得した21.42倍 10-3$ rad/sに近い結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Obstacle avoidance is a critical component of the navigation stack required for mobile robots to operate effectively in complex and unknown environments. In this research, three end-to-end Convolutional Neural Networks (CNNs) were trained and evaluated offline and deployed on a differential-drive mobile robot for real-time obstacle avoidance to generate low-level steering commands from synchronized color and depth images acquired by an Intel RealSense D415 RGB-D camera in diverse environments. Offline evaluation showed that the NetConEmb model achieved the best performance with a notably low MedAE of $0.58 \times 10^{-3}$ rad/s. In comparison, the lighter NetEmb architecture adopted in this study, which reduces the number of trainable parameters by approximately 25\% and converges faster, produced comparable results with an RMSE of $21.68 \times 10^{-3}$ rad/s, close to the $21.42 \times 10^{-3}$ rad/s obtained by NetConEmb. Real-time navigation further confirmed NetConEmb's robustness, achieving a 100\% success rate in both known and unknown environments, while NetEmb and NetGated succeeded only in navigating the known environment.
- Abstract(参考訳): 障害物回避は、複雑な未知の環境で効果的に動作するために移動ロボットに必要なナビゲーションスタックの重要な構成要素である。
本研究では、3つのエンドツーエンド畳み込みニューラルネットワーク(CNN)をオフラインでトレーニングし、リアルタイム障害物回避のための差動駆動型移動ロボットに展開し、Intel RealSense D415 RGB-Dカメラで取得した同期色と深度画像から低レベルステアリングコマンドを生成する。
オフライン評価の結果,NetConEmbモデルが最も高い性能を示し,MedAEは0.58ドル/sの10^{-3}=rad/sであった。
比較として, トレーニング可能なパラメータの数を約25\%削減し, より高速に収束する軽量なNetEmbアーキテクチャは, RMSEが2.1.68 \times 10^{-3}$ rad/sで、NetConEmbが取得した2.1.42 \times 10^{-3}$ rad/sに近い結果を得た。
リアルタイムナビゲーションはNetConEmbの堅牢性をさらに確認し、既知の環境と未知の環境の両方で100倍の成功率を達成したが、NetEmbとNetGatedは既知の環境をナビゲートすることに成功している。
関連論文リスト
- Rapid Salient Object Detection with Difference Convolutional Neural Networks [49.838283141381716]
本稿では,資源制約のあるデバイスにSODをリアルタイムに展開する上での課題について述べる。
SODにおける従来の知恵と現代のCNNの表現力を組み合わせたネットワーク設計を提案する。
論文 参考訳(メタデータ) (2025-07-01T20:41:05Z) - RaGNNarok: A Light-Weight Graph Neural Network for Enhancing Radar Point Clouds on Unmanned Ground Vehicles [12.029656955984262]
我々は、レーダポイントクラウドを強化するために、リアルタイムで軽量で一般化可能なグラフニューラルネットワークフレームワークであるRaGNNarokを紹介した。
RaGNNarokはリソース制約のあるデバイスでも効率的に動作し、追加の計算リソースを必要としない。
以上の結果から,RaGNNarokを低コスト屋内移動ロボットのロバストなソリューションとして,信頼性と汎用性を実証した。
論文 参考訳(メタデータ) (2025-07-01T16:42:43Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - StreakNet-Arch: An Anti-scattering Network-based Architecture for Underwater Carrier LiDAR-Radar Imaging [44.96583097079915]
我々は,我々の開発した水中キャリアLiDAR-Radar(UCLR)に基づくリアルタイムエンドツーエンドバイナリ分類フレームワークであるStreakNet-Archを紹介した。
制御された水槽検証条件下では、StreakNet-Arch with Self-Attention または DBC-Attention が従来のバンドパスフィルタリングより優れている。
南シナ海におけるUCLRシステムの検証を行い,深度1000m,幅20mの3Dターゲットに対して46mmの誤差に達した。
論文 参考訳(メタデータ) (2024-04-14T06:19:46Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。