論文の概要: Robot Person Following in Uniform Crowd Environment
- arxiv url: http://arxiv.org/abs/2205.10553v1
- Date: Sat, 21 May 2022 10:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 16:59:44.848989
- Title: Robot Person Following in Uniform Crowd Environment
- Title(参考訳): 均一な群衆環境で追随するロボット人
- Authors: Adarsh Ghimire, Xiaoxiong Zhang, Sajid Javed, Jorge Dias, Naoufel
Werghi
- Abstract要約: 人追跡ロボットには、セキュリティ、高齢者介護、社交ロボットなど、多くの応用がある。
本研究では,ロバストでリアルタイムなオブジェクトトラッカーを開発することにより,タスク追従者のロボットの知覚能力の向上に焦点をあてる。
我々は,新しいRGB-Dトラッカーを備えた新しいロボット人追跡システムであるDep Tracking with RGB-D (DTRD)を提案する。
- 参考スコア(独自算出の注目度): 13.708992331117281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Person-tracking robots have many applications, such as in security, elderly
care, and socializing robots. Such a task is particularly challenging when the
person is moving in a Uniform crowd. Also, despite significant progress of
trackers reported in the literature, state-of-the-art trackers have hardly
addressed person following in such scenarios. In this work, we focus on
improving the perceptivity of a robot for a person following task by developing
a robust and real-time applicable object tracker. We present a new robot person
tracking system with a new RGB-D tracker, Deep Tracking with RGB-D (DTRD) that
is resilient to tricky challenges introduced by the uniform crowd environment.
Our tracker utilizes transformer encoder-decoder architecture with RGB and
depth information to discriminate the target person from similar distractors. A
substantial amount of comprehensive experiments and results demonstrate that
our tracker has higher performance in two quantitative evaluation metrics and
confirms its superiority over other SOTA trackers.
- Abstract(参考訳): 人追跡ロボットには、セキュリティ、高齢者介護、社交ロボットなど、多くの応用がある。
このようなタスクは、統一的な群衆の中を移動するときに特に難しい。
また、文献で報告されている追跡者の著しい進歩にもかかわらず、最先端の追跡者はそのようなシナリオでのフォローにほとんど対処していない。
本研究では,ロバストでリアルタイムなオブジェクトトラッカーを開発することにより,タスク追従者のロボットの知覚能力の向上に焦点をあてる。
我々は,新しいRGB-Dトラッカーを備えた新しいロボット人追跡システムであるDep Tracking with RGB-D (DTRD)を提案する。
トラッカーは変換器エンコーダ・デコーダアーキテクチャを用いて,RGBと深度情報を用いて,類似のトラクタから対象者を識別する。
総合的な実験と結果から,我々のトラッカーは2つの定量的評価指標において高い性能を示し,他のsotaトラッカーよりも優れていることを確認した。
関連論文リスト
- RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - EXOT: Exit-aware Object Tracker for Safe Robotic Manipulation of Moving
Object [18.17924341716236]
操作中の物体の欠如を認識するロボットハンドカメラにEXOT(Exit-Aware Object Tracker)を提案する。
ロボットは、対象物を含むトラッカーのバウンディングボックス出力を調べて進むか否かを判定する。
トラッカーはベースライン法よりも38%高いエグジット認識性能を示した。
論文 参考訳(メタデータ) (2023-06-08T15:03:47Z) - Person Monitoring by Full Body Tracking in Uniform Crowd Environment [10.71804432329509]
中東では、均一な群衆環境が最先端のトラッカーに挑戦する規範である。
本研究では,一様群集環境下で,ビデオ毎に1つの特定のターゲットを持つ注釈付きデータセットを開発する。
このデータセットは、最先端のトラッカーの評価と微調整に使用された。
論文 参考訳(メタデータ) (2022-09-02T21:21:47Z) - RGBD Object Tracking: An In-depth Review [89.96221353160831]
まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
論文 参考訳(メタデータ) (2022-03-26T18:53:51Z) - Global Instance Tracking: Locating Target More Like Humans [47.99395323689126]
人間の視覚システムの本質的な能力であるターゲットトラッキングは、コンピュータビジョンタスクによってシミュレートされている。
既存のトラッカーは、アスターの実験環境では良好に動作しますが、閉塞や高速動作といった課題で失敗します。
本稿では,ビデオ中の任意のユーザ指定インスタンスを検索するグローバルインスタンス追跡(GIT)タスクを提案する。
論文 参考訳(メタデータ) (2022-02-26T06:16:34Z) - Cross-Modal Analysis of Human Detection for Robotics: An Industrial Case
Study [7.844709223688293]
ロボット工学で典型的に使用されるセンサとアルゴリズムの組み合わせの系統的相互モーダル分析を行う。
2Dレンジデータ,3Dライダーデータ,RGB-Dデータに対する最先端人検知器の性能の比較を行った。
我々は、強力な画像ベースRGB-D検出器を拡張し、弱い3次元境界ボックスラベルの形でライダー検出器の相互監視を行う。
論文 参考訳(メタデータ) (2021-08-03T13:33:37Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。