論文の概要: LiDAR-guided object search and detection in Subterranean Environments
- arxiv url: http://arxiv.org/abs/2210.14997v1
- Date: Wed, 26 Oct 2022 19:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:23:32.828295
- Title: LiDAR-guided object search and detection in Subterranean Environments
- Title(参考訳): 地下環境におけるLiDAR誘導物体探索と検出
- Authors: Manthan Patel, Gabriel Waibel, Shehryar Khattak, Marco Hutter
- Abstract要約: この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
- 参考スコア(独自算出の注目度): 12.265807098187297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting objects of interest, such as human survivors, safety equipment, and
structure access points, is critical to any search-and-rescue operation. Robots
deployed for such time-sensitive efforts rely on their onboard sensors to
perform their designated tasks. However, as disaster response operations are
predominantly conducted under perceptually degraded conditions, commonly
utilized sensors such as visual cameras and LiDARs suffer in terms of
performance degradation. In response, this work presents a method that utilizes
the complementary nature of vision and depth sensors to leverage multi-modal
information to aid object detection at longer distances. In particular, depth
and intensity values from sparse LiDAR returns are used to generate proposals
for objects present in the environment. These proposals are then utilized by a
Pan-Tilt-Zoom (PTZ) camera system to perform a directed search by adjusting its
pose and zoom level for performing object detection and classification in
difficult environments. The proposed work has been thoroughly verified using an
ANYmal quadruped robot in underground settings and on datasets collected during
the DARPA Subterranean Challenge finals.
- Abstract(参考訳): 生存者、安全装置、構造アクセスポイントなどの関心の対象を検出することは、捜索救助活動には不可欠である。
このような時間に敏感な作業のために配備されたロボットは、指定されたタスクを実行するためにオンボードセンサーに依存する。
しかし, 視覚的カメラやLiDARなどの一般的なセンサは, 性能劣化に悩まされている。
本研究は,視覚と深度センサの相補的な性質を利用して,複数モーダル情報を活用し,物体の長距離検出を支援する手法を提案する。
特に、疎LiDARリターンからの深さと強度の値は、環境に存在するオブジェクトの提案を生成するために使用される。
これらの提案はpan-tilt-zoom (ptz)カメラシステムによって, 姿勢やズームレベルを調整して指向探索を行い, 難しい環境で物体の検出と分類を行う。
提案された研究は、地下およびdarpa subterranean challengeファイナルで収集されたデータセット上で、anymalの四足ロボットを用いて徹底的に検証されている。
関連論文リスト
- Object Depth and Size Estimation using Stereo-vision and Integration with SLAM [2.122581579741322]
自律ロボットにおけるLiDARを補完する高精度な立体視手法を提案する。
このシステムは、高度な立体視に基づく物体検出を使用して、有形物体と非有形物体の両方を検出する。
深さと大きさの情報はSLAMプロセスに統合され、複雑な環境でロボットのナビゲーション能力を高める。
論文 参考訳(メタデータ) (2024-09-11T21:12:48Z) - Performance Assessment of Feature Detection Methods for 2-D FS Sonar Imagery [11.23455335391121]
主な課題は、一様でない照明と、濁った環境での視界の低下である。
高周波フォワードフォワードソナーカメラはこれらの問題に対処する。
5種類のソナー装置の実際のソナー画像を用いた特徴検出器の評価を行った。
論文 参考訳(メタデータ) (2024-09-11T04:35:07Z) - Object Detectors in the Open Environment: Challenges, Solutions, and Outlook [95.3317059617271]
オープン環境のダイナミックで複雑な性質は、オブジェクト検出器に新しくて恐ろしい挑戦をもたらす。
本稿では,オープン環境におけるオブジェクト検出器の総合的なレビューと解析を行う。
データ/ターゲットの変化の次元に基づいて、4つの四分法(ドメイン外、カテゴリ外、堅牢な学習、漸進的な学習)を含むフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-24T19:32:39Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - A Systematic Study on Object Recognition Using Millimeter-wave Radar [1.3192560874022086]
ミリ波(MMW)レーダーはスマート環境において必須である。
MMWレーダーは高価で、コミュニティ向けのスマート環境アプリケーションでは入手が難しい。
これらの課題は、オブジェクトやアクティビティを認識するといったタスクについて調査する必要がある。
論文 参考訳(メタデータ) (2023-05-03T12:42:44Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Comparative study of 3D object detection frameworks based on LiDAR data
and sensor fusion techniques [0.0]
知覚システムは、車両の環境をリアルタイムで正確に解釈する上で重要な役割を果たす。
ディープラーニング技術は、センサーから大量のデータを意味情報に変換する。
3Dオブジェクト検出法は、LiDARやステレオカメラなどのセンサーから追加のポーズデータを利用することで、オブジェクトのサイズと位置に関する情報を提供する。
論文 参考訳(メタデータ) (2022-02-05T09:34:58Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Robust Object Detection via Instance-Level Temporal Cycle Confusion [89.1027433760578]
物体検出器の分布外一般化を改善するための補助的自己監視タスクの有効性を検討する。
最大エントロピーの原理に触発されて,新しい自己監督タスクであるインスタンスレベル時間サイクル混乱(cycconf)を導入する。
それぞれのオブジェクトに対して、タスクは、ビデオ内の隣接するフレームで最も異なるオブジェクトの提案を見つけ、自己スーパービジョンのために自分自身にサイクルバックすることです。
論文 参考訳(メタデータ) (2021-04-16T21:35:08Z) - Channel Boosting Feature Ensemble for Radar-based Object Detection [6.810856082577402]
レーダーベースの物体検出は、悪天候下でデプロイおよび使用される対応するセンサーモダリティを提供する。
提案手法の有効性をCOCO評価指標を用いて広く評価する。
論文 参考訳(メタデータ) (2021-01-10T12:20:58Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。