論文の概要: What we see and What we don't see: Imputing Occluded Crowd Structures
from Robot Sensing
- arxiv url: http://arxiv.org/abs/2109.08494v1
- Date: Fri, 17 Sep 2021 12:12:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 18:49:31.932137
- Title: What we see and What we don't see: Imputing Occluded Crowd Structures
from Robot Sensing
- Title(参考訳): 目にするものと見えないもの - ロボットセンシングから蓄積した群集構造に迫る
- Authors: Javad Amirian, Jean-Bernard Hayet, Julien Pettre
- Abstract要約: 我々は,ロボットの周囲の空間,盲点における人間の占有度を,その知覚能力の範囲を超えて推定する問題に対処する。
この問題は、ロボットの群集のナビゲーション効率と安全性に重要な影響を与えているにもかかわらず、まだ解明されていない。
- 参考スコア(独自算出の注目度): 7.6272993984699635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the navigation of mobile robots in crowded environments, for
which onboard sensing of the crowd is typically limited by occlusions. We
address the problem of inferring the human occupancy in the space around the
robot, in blind spots, beyond the range of its sensing capabilities. This
problem is rather unexplored in spite of the important impact it has on the
robot crowd navigation efficiency and safety, which requires the estimation and
the prediction of the crowd state around it. In this work, we propose the first
solution to sample predictions of possible human presence based on the state of
a fewer set of sensed people around the robot as well as previous observations
of the crowd activity.
- Abstract(参考訳): 混み合った環境での移動ロボットのナビゲーションについて考察する。
我々は,ロボットの周囲の空間,盲点における人間の占有度を,知覚能力の範囲を超えて推定する問題に対処する。
この問題は、ロボットの群集のナビゲーション効率と安全性に重要な影響があるにもかかわらず、かなり未解決であり、周囲の群集状態の推定と予測を必要とする。
そこで本研究では,ロボットの周囲にいる感覚の少ない人々の状態や,群集活動のこれまでの観測に基づいて,人間の存在を推定する最初の方法を提案する。
関連論文リスト
- CoNav: A Benchmark for Human-Centered Collaborative Navigation [66.6268966718022]
協調ナビゲーション(CoNav)ベンチマークを提案する。
われわれのCoNavは、現実的で多様な人間の活動を伴う3Dナビゲーション環境を構築するという重要な課題に取り組む。
本研究では,長期的意図と短期的意図の両方を推論する意図認識エージェントを提案する。
論文 参考訳(メタデータ) (2024-06-04T15:44:25Z) - Robots That Can See: Leveraging Human Pose for Trajectory Prediction [30.919756497223343]
本研究では,人間中心環境における未来の軌道を予測するためのトランスフォーマーアーキテクチャを提案する。
結果として得られたモデルは、将来の人間の軌道予測に固有の不確実性を捉えている。
我々は,限られた履歴データを持つ新しいエージェントを誤りの主な要因として同定し,予測誤差を低減するために3次元骨格ポーズの相補的な性質を実証する。
論文 参考訳(メタデータ) (2023-09-29T13:02:56Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Aligning Robot and Human Representations [50.070982136315784]
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
論文 参考訳(メタデータ) (2023-02-03T18:59:55Z) - Dense Crowd Flow-Informed Path Planning [24.849908664615104]
フローフィールド抽出と離散探索は、フローインフォームドパス計画を作成するために使用される。
FIPPを用いたロボットはゴールを素早く達成できただけでなく、従来の技術を用いたロボットよりも社会的に適合していることが判明した。
論文 参考訳(メタデータ) (2022-06-01T18:40:57Z) - An Embarrassingly Pragmatic Introduction to Vision-based Autonomous
Robots [0.0]
視覚情報のみを用いてシーンを理解できる小型の自律走行車を開発した。
我々は、ロボットと自動運転の現在の状況と、この分野で見られる技術的、倫理的制約について論じる。
論文 参考訳(メタデータ) (2021-11-15T01:31:28Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Enabling the Sense of Self in a Dual-Arm Robot [2.741266294612776]
本稿では、デュアルアームロボットが環境中で自身の感覚を得ることを可能にするニューラルネットワークアーキテクチャを提案する。
本研究では, 環境条件が乱れた場合, ロボットが平均88.7%の精度で自分自身を識別できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-11-13T17:25:07Z) - Minimizing Robot Navigation-Graph For Position-Based Predictability By
Humans [20.13307800821161]
人間とロボットが同じ空間を移動しながら独自のタスクを遂行している状況では、予測可能な経路が不可欠である。
ロボットの数が増加するにつれて、人間がロボットの進路を予測するための認知的努力は不可能になる。
そこで本研究では,位置に基づく予測可能性のために,ロボットのナビゲーショングラフを最小化することを提案する。
論文 参考訳(メタデータ) (2020-10-28T22:09:10Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。