論文の概要: Real-Time Obstacle Avoidance for a Mobile Robot Using CNN-Based Sensor Fusion
- arxiv url: http://arxiv.org/abs/2509.08095v1
- Date: Tue, 09 Sep 2025 19:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.234011
- Title: Real-Time Obstacle Avoidance for a Mobile Robot Using CNN-Based Sensor Fusion
- Title(参考訳): CNN型センサフュージョンを用いた移動ロボットのリアルタイム障害物回避
- Authors: Lamiaa H. Zain, Raafat E. Shalaby,
- Abstract要約: 3つの畳み込みニューラルネットワーク(CNN)をトレーニングし、オフラインで評価し、リアルタイム障害物回避のための差動駆動型移動ロボットにデプロイした。
オフライン評価の結果、NetConEmbモデルは特に低いMedAEが0.58×10-3$ rad/sで最高の性能を示した。
対照的に、より軽量なNetEmbアーキテクチャは、RMSEが21.68倍 10-3$ rad/sで、NetConEmbが取得した21.42倍 10-3$ rad/sに近い結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Obstacle avoidance is a critical component of the navigation stack required for mobile robots to operate effectively in complex and unknown environments. In this research, three end-to-end Convolutional Neural Networks (CNNs) were trained and evaluated offline and deployed on a differential-drive mobile robot for real-time obstacle avoidance to generate low-level steering commands from synchronized color and depth images acquired by an Intel RealSense D415 RGB-D camera in diverse environments. Offline evaluation showed that the NetConEmb model achieved the best performance with a notably low MedAE of $0.58 \times 10^{-3}$ rad/s. In comparison, the lighter NetEmb architecture adopted in this study, which reduces the number of trainable parameters by approximately 25\% and converges faster, produced comparable results with an RMSE of $21.68 \times 10^{-3}$ rad/s, close to the $21.42 \times 10^{-3}$ rad/s obtained by NetConEmb. Real-time navigation further confirmed NetConEmb's robustness, achieving a 100\% success rate in both known and unknown environments, while NetEmb and NetGated succeeded only in navigating the known environment.
- Abstract(参考訳): 障害物回避は、複雑な未知の環境で効果的に動作するために移動ロボットに必要なナビゲーションスタックの重要な構成要素である。
本研究では、3つのエンドツーエンド畳み込みニューラルネットワーク(CNN)をオフラインでトレーニングし、リアルタイム障害物回避のための差動駆動型移動ロボットに展開し、Intel RealSense D415 RGB-Dカメラで取得した同期色と深度画像から低レベルステアリングコマンドを生成する。
オフライン評価の結果,NetConEmbモデルが最も高い性能を示し,MedAEは0.58ドル/sの10^{-3}=rad/sであった。
比較として, トレーニング可能なパラメータの数を約25\%削減し, より高速に収束する軽量なNetEmbアーキテクチャは, RMSEが2.1.68 \times 10^{-3}$ rad/sで、NetConEmbが取得した2.1.42 \times 10^{-3}$ rad/sに近い結果を得た。
リアルタイムナビゲーションはNetConEmbの堅牢性をさらに確認し、既知の環境と未知の環境の両方で100倍の成功率を達成したが、NetEmbとNetGatedは既知の環境をナビゲートすることに成功している。
関連論文リスト
- A Hybrid Autoencoder for Robust Heightmap Generation from Fused Lidar and Depth Data for Humanoid Robot Locomotion [2.9223917785251285]
本稿では,中間的なロボット中心のハイトマップ表現を用いた学習ベースのフレームワークを提案する。
空間特徴抽出に畳み込みニューラルネットワーク(CNN)を用いたハイブリッドデコーダ構造(EDS)を導入する。
その結果、マルチモーダル核融合により、深さのみ以上の再現精度が7.2%向上し、LiDARのみの構成で9.9%向上することが示されている。
論文 参考訳(メタデータ) (2026-02-05T16:38:42Z) - Towards Foundational Models for Single-Chip Radar [49.896124982717716]
mmWaveレーダーは小型で安価で耐久性のあるセンサーで、天気や暗闇といった環境条件によらず機能する。
これは角分解能の低さ、特に自動車や屋内センサーの用途で一般的に使用される安価な単チップレーダーのコストが伴う。
我々は、4Dシングルチップレーダーの基本モデルを訓練し、3D占有率とセマンティックセマンティックセグメンテーションを、高解像度センサーでのみ可能な品質で予測できる。
論文 参考訳(メタデータ) (2025-09-15T22:06:17Z) - Real World Robotic Exploration using Deep Neural Networks Trained in Photorealistic Reconstructed Environments [1.3053649021965599]
視覚情報(RGB画像)からロボットのポーズを決定するための既存のディープニューラルネットワークアプローチを変更する。
フォトグラムデータを使用してポーズラベル付きデータセットを生成し、上記のモデルをローカル環境でトレーニングすることができる。
この訓練されたモデルはナビゲーションアルゴリズムの基礎を形成し、TurtleBot上でリアルタイムでテストされる。
論文 参考訳(メタデータ) (2025-09-12T00:03:04Z) - Rapid Salient Object Detection with Difference Convolutional Neural Networks [49.838283141381716]
本稿では,資源制約のあるデバイスにSODをリアルタイムに展開する上での課題について述べる。
SODにおける従来の知恵と現代のCNNの表現力を組み合わせたネットワーク設計を提案する。
論文 参考訳(メタデータ) (2025-07-01T20:41:05Z) - RaGNNarok: A Light-Weight Graph Neural Network for Enhancing Radar Point Clouds on Unmanned Ground Vehicles [12.029656955984262]
我々は、レーダポイントクラウドを強化するために、リアルタイムで軽量で一般化可能なグラフニューラルネットワークフレームワークであるRaGNNarokを紹介した。
RaGNNarokはリソース制約のあるデバイスでも効率的に動作し、追加の計算リソースを必要としない。
以上の結果から,RaGNNarokを低コスト屋内移動ロボットのロバストなソリューションとして,信頼性と汎用性を実証した。
論文 参考訳(メタデータ) (2025-07-01T16:42:43Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - StreakNet-Arch: An Anti-scattering Network-based Architecture for Underwater Carrier LiDAR-Radar Imaging [44.96583097079915]
我々は,我々の開発した水中キャリアLiDAR-Radar(UCLR)に基づくリアルタイムエンドツーエンドバイナリ分類フレームワークであるStreakNet-Archを紹介した。
制御された水槽検証条件下では、StreakNet-Arch with Self-Attention または DBC-Attention が従来のバンドパスフィルタリングより優れている。
南シナ海におけるUCLRシステムの検証を行い,深度1000m,幅20mの3Dターゲットに対して46mmの誤差に達した。
論文 参考訳(メタデータ) (2024-04-14T06:19:46Z) - ApproxDARTS: Differentiable Neural Architecture Search with Approximate Multipliers [0.24578723416255746]
本稿では、DARTSと呼ばれる一般的な微分可能なニューラルアーキテクチャ探索手法を応用し、近似乗算器を活用可能なニューラルアーキテクチャ探索(NAS)手法であるApproxDARTSを提案する。
ApproxDARTSは10ドル未満のGPU時間で完全なアーキテクチャ検索を実行でき、畳み込み層に近似乗算器を含む競合畳み込みニューラルネットワーク(CNN)を生成する。
論文 参考訳(メタデータ) (2024-04-08T09:54:57Z) - Semantic Segmentation in Satellite Hyperspectral Imagery by Deep Learning [54.094272065609815]
本稿では1D-Justo-LiuNetという軽量な1D-CNNモデルを提案する。
1D-Justo-LiuNetは、全てのテストモデルの中で最小のモデルサイズ (4,563 パラメータ) を持つ最大精度 (0.93) を達成する。
論文 参考訳(メタデータ) (2023-10-24T21:57:59Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - A New Backbone for Hyperspectral Image Reconstruction [90.48427561874402]
3次元ハイパースペクトル画像(HSI)再構成は、スナップショット圧縮画像の逆過程を指す。
空間/スペクトル不変Residual U-Net、すなわちSSI-ResU-Netを提案する。
SSI-ResU-Net は浮動小数点演算の 77.3% 以上で競合する性能を実現する。
論文 参考訳(メタデータ) (2021-08-17T16:20:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。