論文の概要: Real-Time Glass Detection and Reprojection using Sensor Fusion Onboard Aerial Robots
- arxiv url: http://arxiv.org/abs/2510.06518v1
- Date: Tue, 07 Oct 2025 23:31:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.228121
- Title: Real-Time Glass Detection and Reprojection using Sensor Fusion Onboard Aerial Robots
- Title(参考訳): 空中ロボット搭載センサフュージョンを用いた実時間ガラス検出と再投射
- Authors: Malakhi Hopkins, Varun Murali, Vijay Kumar, Camillo J Taylor,
- Abstract要約: 透明な障害物は、信頼性の高いナビゲーションとマッピングに重大な課題をもたらします。
本稿では,300g以下の4乗子上での透明な障害物の検出とマッピングのための,新しい計算効率の高いフレームワークを提案する。
提案手法は,カスタム2次元畳み込みモデルを用いて,Time-of-Flight(ToF)カメラと超音波センサのデータを融合する。
パイプライン全体がリアルタイムで動作し、組み込みプロセッサ上のCPUコアのごく一部しか利用できない。
- 参考スコア(独自算出の注目度): 9.34137124377529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous aerial robots are increasingly being deployed in real-world scenarios, where transparent obstacles present significant challenges to reliable navigation and mapping. These materials pose a unique problem for traditional perception systems because they lack discernible features and can cause conventional depth sensors to fail, leading to inaccurate maps and potential collisions. To ensure safe navigation, robots must be able to accurately detect and map these transparent obstacles. Existing methods often rely on large, expensive sensors or algorithms that impose high computational burdens, making them unsuitable for low Size, Weight, and Power (SWaP) robots. In this work, we propose a novel and computationally efficient framework for detecting and mapping transparent obstacles onboard a sub-300g quadrotor. Our method fuses data from a Time-of-Flight (ToF) camera and an ultrasonic sensor with a custom, lightweight 2D convolution model. This specialized approach accurately detects specular reflections and propagates their depth into corresponding empty regions of the depth map, effectively rendering transparent obstacles visible. The entire pipeline operates in real-time, utilizing only a small fraction of a CPU core on an embedded processor. We validate our system through a series of experiments in both controlled and real-world environments, demonstrating the utility of our method through experiments where the robot maps indoor environments containing glass. Our work is, to our knowledge, the first of its kind to demonstrate a real-time, onboard transparent obstacle mapping system on a low-SWaP quadrotor using only the CPU.
- Abstract(参考訳): 自律飛行ロボットはますます現実のシナリオに展開されつつあり、そこでは透明な障害物が、信頼性の高いナビゲーションとマッピングに重大な課題をもたらしている。
これらの材料は、識別可能な特徴が欠如し、従来の深度センサーが故障し、不正確な地図や潜在的な衝突を引き起こすため、従来の知覚システムに特有の問題を引き起こす。
安全なナビゲーションを確保するために、ロボットはこれらの透明な障害物を正確に検出し、マッピングしなければなりません。
既存の方法は、大きな高価なセンサーやアルゴリズムを頼りにしており、計算負荷が高いため、小型、軽量、パワー(SWaP)ロボットには適さない。
本研究では,300g以下の4乗子上の透明な障害物を検出し,マッピングするための,新しい,計算効率の良いフレームワークを提案する。
提案手法は,カスタム2次元畳み込みモデルを用いて,Time-of-Flight(ToF)カメラと超音波センサのデータを融合する。
この特殊なアプローチは、スペクトル反射を正確に検出し、深度マップの対応する空の領域にその深さを伝播し、効果的に透明な障害物を可視化する。
パイプライン全体がリアルタイムで動作し、組み込みプロセッサ上のCPUコアのごく一部しか利用できない。
ロボットが室内のガラスを含む環境をマッピングする実験を通じて,制御された環境と実環境の両方で実験を行い,本手法の有効性を実証した。
私たちの研究は、私たちの知る限り、CPUのみを使用して低SWaP四元子上で、リアルタイムでオンボードの透明な障害物マッピングシステムを実演した初めてのものです。
関連論文リスト
- Sight Over Site: Perception-Aware Reinforcement Learning for Efficient Robotic Inspection [57.37596278863949]
本研究では,認識・認識の観点からの検査を再考する。
本稿では,目標視認性を主目的とするエンドツーエンド強化学習フレームワークを提案する。
提案手法は,既存の古典的および学習的ナビゲーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-09-22T15:14:02Z) - Real-Time Navigation for Autonomous Aerial Vehicles Using Video [11.414350041043326]
我々は,コンピュータビジョン(CV)アルゴリズムの作業量を削減するために,新しいマルコフ決定プロセス(MDP)フレームワークを導入する。
提案するフレームワークは,機能ベースとニューラルネットベースのオブジェクト検出タスクの両方に適用する。
これらの総合的なテストは、エネルギー消費と速度に大きな利点を示し、精度は限られている。
論文 参考訳(メタデータ) (2025-04-01T01:14:42Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - DOTIE -- Detecting Objects through Temporal Isolation of Events using a
Spiking Architecture [5.340730281227837]
視覚に基づく自律ナビゲーションシステムは障害物を避けるために高速で正確な物体検出アルゴリズムに依存している。
本研究では,イベントに固有の時間的情報を用いて移動物体を効率的に検出する手法を提案する。
我々のアーキテクチャを利用することで、自律ナビゲーションシステムは、オブジェクト検出を行うための最小のレイテンシとエネルギーオーバーヘッドを持つことが示される。
論文 参考訳(メタデータ) (2022-10-03T14:43:11Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Learning High-Speed Flight in the Wild [101.33104268902208]
複雑な自然環境や人工環境を高速で自律的に飛行するエンド・ツー・エンドのアプローチを提案する。
鍵となる原理は、雑音の知覚観測を直接、後退水平方向に無衝突軌道にマッピングすることである。
現実的なセンサノイズをシミュレートすることにより,シミュレーションから現実環境へのゼロショット転送を実現する。
論文 参考訳(メタデータ) (2021-10-11T09:43:11Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - High-Speed Robot Navigation using Predicted Occupancy Maps [0.0]
ロボットがセンサの地平線を越えて広がる空間を高速で予測できるアルゴリズム手法について検討する。
我々は、人間のアノテートラベルを必要とせず、実世界のデータからトレーニングされた生成ニューラルネットワークを用いてこれを実現する。
既存の制御アルゴリズムを拡張し、予測空間を活用することで、衝突のない計画とナビゲーションを高速で改善します。
論文 参考訳(メタデータ) (2020-12-22T16:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。