論文の概要: Event Camera Based Real-Time Detection and Tracking of Indoor Ground
Robots
- arxiv url: http://arxiv.org/abs/2102.11916v1
- Date: Tue, 23 Feb 2021 19:50:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:33:05.273057
- Title: Event Camera Based Real-Time Detection and Tracking of Indoor Ground
Robots
- Title(参考訳): イベントカメラを用いた屋内ロボットのリアルタイム検出と追跡
- Authors: Himanshu Patel, Craig Iaboni, Deepan Lobo, Ji-won Choi, Pramod
Abichandani
- Abstract要約: 本稿では,イベントカメラを用いて複数の移動ロボットをリアルタイムに検出・追跡する手法を提案する。
ノイズのあるアプリケーションの密度に基づく空間クラスタリング(DBSCAN)を用いて、ロボットと1本のk次元(k-d)木を検知し、屋内アリーナで動きながら正確に追跡する。
- 参考スコア(独自算出の注目度): 2.471139321417215
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a real-time method to detect and track multiple mobile
ground robots using event cameras. The method uses density-based spatial
clustering of applications with noise (DBSCAN) to detect the robots and a
single k-dimensional (k-d) tree to accurately keep track of them as they move
in an indoor arena. Robust detections and tracks are maintained in the face of
event camera noise and lack of events (due to robots moving slowly or
stopping). An off-the-shelf RGB camera-based tracking system was used to
provide ground truth. Experiments including up to 4 robots are performed to
study the effect of i) varying DBSCAN parameters, ii) the event accumulation
time, iii) the number of robots in the arena, and iv) the speed of the robots
on the detection and tracking performance. The experimental results showed 100%
detection and tracking fidelity in the face of event camera noise and robots
stopping for tests involving up to 3 robots (and upwards of 93% for 4 robots).
- Abstract(参考訳): 本稿では,イベントカメラを用いて複数の移動ロボットをリアルタイムに検出・追跡する手法を提案する。
ノイズのあるアプリケーションの密度に基づく空間クラスタリング(DBSCAN)を用いて、ロボットと1本のk次元(k-d)木を検知し、屋内アリーナで動きながら正確に追跡する。
ロバスト検出とトラックは、イベントカメラのノイズやイベントの欠如(ロボットがゆっくりと動いたり止まったりするため)に直面して維持される。
既製のRGBカメラベースの追跡システムは、地上の真実を提供するために使用されました。
i)DBSCANパラメータの変化、ii)イベント蓄積時間、iii)アリーナ内のロボットの数、およびiv)検出および追跡性能に対するロボットの速度を研究するために、最大4つのロボットを含む実験が行われます。
実験結果は、イベントカメラのノイズと、最大3台のロボットを含むテストのために停止するロボットと、最大で93%のロボットによる検出と追跡の忠実性を示した。
関連論文リスト
- Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments [52.425280825457385]
本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
論文 参考訳(メタデータ) (2023-10-09T10:35:37Z) - Event-based tracking of human hands [0.6875312133832077]
イベントカメラは、明るさの変化、動きの測定、低レイテンシ、動きのぼけのない、消費電力の低い、ダイナミックレンジの高い検出を行う。
キャプチャされたフレームは、3次元手の位置データを報告する軽量アルゴリズムを用いて分析される。
論文 参考訳(メタデータ) (2023-04-13T13:43:45Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z) - Exploration of Reinforcement Learning for Event Camera using Car-like
Robots [10.66048003460524]
イベントカメラを備えたロボットのための最初の強化学習アプリケーションを実演する。
イベントカメラのレイテンシがかなり低いため、ロボットをはるかに高速に制御することが可能である。
論文 参考訳(メタデータ) (2020-04-02T03:52:03Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。