論文の概要: ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation
- arxiv url: http://arxiv.org/abs/2003.01062v2
- Date: Tue, 28 Jul 2020 15:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:51:33.301615
- Title: ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation
- Title(参考訳): proxemo:ソーシャルアウェアロボットナビゲーションのための歩行に基づく感情学習と多視点プロキシミクス融合
- Authors: Venkatraman Narayanan, Bala Murali Manoghar, Vishnu Sashank Dorbala,
Dinesh Manocha, Aniket Bera
- Abstract要約: 本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
- 参考スコア(独自算出の注目度): 65.11858854040543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ProxEmo, a novel end-to-end emotion prediction algorithm for
socially aware robot navigation among pedestrians. Our approach predicts the
perceived emotions of a pedestrian from walking gaits, which is then used for
emotion-guided navigation taking into account social and proxemic constraints.
To classify emotions, we propose a multi-view skeleton graph convolution-based
model that works on a commodity camera mounted onto a moving robot. Our emotion
recognition is integrated into a mapless navigation scheme and makes no
assumptions about the environment of pedestrian motion. It achieves a mean
average emotion prediction precision of 82.47% on the Emotion-Gait benchmark
dataset. We outperform current state-of-art algorithms for emotion recognition
from 3D gaits. We highlight its benefits in terms of navigation in indoor
scenes using a Clearpath Jackal robot.
- Abstract(参考訳): 本稿では,歩行者間のロボットナビゲーションをソーシャルに認識するための,エンドツーエンドの感情予測アルゴリズムであるProxEmoを紹介する。
提案手法は,歩行者の歩行から知覚される感情を予測し,社会的・近視的制約を考慮した感情誘導ナビゲーションに応用する。
感情を分類するために,移動ロボットに搭載されたコモディティカメラで動作する多視点スケルトングラフ畳み込みモデルを提案する。
我々の感情認識は地図のないナビゲーション方式に統合され、歩行者の動きの環境について仮定することができない。
Emotion-Gaitベンチマークデータセットの平均感情予測精度は82.47%である。
感情認識のための現在の最先端アルゴリズムを3d歩行で上回っている。
我々は、clearpath jackalロボットを用いた屋内シーンのナビゲーションの利点を強調する。
関連論文リスト
- HappyRouting: Learning Emotion-Aware Route Trajectories for Scalable
In-The-Wild Navigation [24.896210787867368]
HappyRoutingはナビゲーションベースの新しい共感型カーインタフェースで、ドライバーが現実の交通を案内し、ポジティブな感情を喚起する。
私たちのコントリビューションは、静的および動的コンテキストデータに基づいて、ルートに沿って感情を予測する機械学習ベースの感情マップ層です。
本稿では、感情に基づくルーティングをナビゲーションアプリに統合し、モビリティ利用のための感情的幸福を促進する方法について論じる。
論文 参考訳(メタデータ) (2024-01-28T16:44:17Z) - MoEmo Vision Transformer: Integrating Cross-Attention and Movement
Vectors in 3D Pose Estimation for HRI Emotion Detection [4.757210144179483]
ロボットシステム内での人間の感情検出のためのクロスアテンション・ビジョン・トランスフォーマ(ViT)であるMoEmo(Motion to Emotion)を紹介する。
我々は,移動ベクトルと環境コンテキストを結合表現に組み合わせ,感情推定を導出するクロスアテンション融合モデルを実装した。
我々はMoEmoシステムをトレーニングし、動きとコンテキストを共同で分析し、現在の最先端よりも優れた感情を検出する。
論文 参考訳(メタデータ) (2023-10-15T06:52:15Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - e-Inu: Simulating A Quadruped Robot With Emotional Sentience [4.15623340386296]
本稿では,人間の感情を検知・理解できるロボットの理解と仮想シミュレーションについて論じる。
我々は、強化学習とソフトウェア工学の概念を組み合わせて、感情を理解できる四足歩行ロボットをシミュレートする。
ビデオ感情検出システムは、99.66%の精度で、ほぼ芸術の状況に匹敵する結果を生み出した。
論文 参考訳(メタデータ) (2023-01-03T06:28:45Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Socially Compliant Navigation Dataset (SCAND): A Large-Scale Dataset of
Demonstrations for Social Navigation [92.66286342108934]
社会ナビゲーションは、ロボットのような自律的なエージェントが、人間のような他の知的エージェントの存在下で、社会的に従順な方法でナビゲートする能力である。
私たちのデータセットには8.7時間、128の軌道、25マイルの社会的に適合した人間の遠隔運転デモが含まれています。
論文 参考訳(メタデータ) (2022-03-28T19:09:11Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Take an Emotion Walk: Perceiving Emotions from Gaits Using Hierarchical Attention Pooling and Affective Mapping [55.72376663488104]
本稿では、ビデオやモーションキャプチャーデータから得られた歩行スタイルから、知覚された人間の感情を分類するためのオートエンコーダに基づくアプローチを提案する。
3次元ポーズシーケンスから抽出した各ステップのポーズにおける各関節の動きを考慮し、これらの関節の動きをエンコーダに階層的にプールする。
我々はデコーダを訓練し、潜伏埋め込みからトップダウン方式で1ステップ当たりの関節の動きを再構築する。
論文 参考訳(メタデータ) (2019-11-20T05:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。