論文の概要: Teaching Robots to Span the Space of Functional Expressive Motion
- arxiv url: http://arxiv.org/abs/2203.02091v1
- Date: Fri, 4 Mar 2022 02:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:48:51.454261
- Title: Teaching Robots to Span the Space of Functional Expressive Motion
- Title(参考訳): 機能的表情運動の空間を拡大するロボットの指導
- Authors: Arjun Sripathy, Andreea Bobu, Zhongyu Li, Koushil Sreenath, Daniel S.
Brown, and Anca D. Dragan
- Abstract要約: トラジェクトリがValence-Arousal-Dominance (VAD) にどのようにマッピングされるかのモデルを学ぶ。
すべてのユーザフィードバックは、すべての感情について学ぶのに役立ちます。
ロボットは、ユーザーが生成した自然言語に動機的に反応することができる。
- 参考スコア(独自算出の注目度): 46.00279663161918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our goal is to enable robots to perform functional tasks in emotive ways, be
it in response to their users' emotional states, or expressive of their
confidence levels. Prior work has proposed learning independent cost functions
from user feedback for each target emotion, so that the robot may optimize it
alongside task and environment specific objectives for any situation it
encounters. However, this approach is inefficient when modeling multiple
emotions and unable to generalize to new ones. In this work, we leverage the
fact that emotions are not independent of each other: they are related through
a latent space of Valence-Arousal-Dominance (VAD). Our key idea is to learn a
model for how trajectories map onto VAD with user labels. Considering the
distance between a trajectory's mapping and a target VAD allows this single
model to represent cost functions for all emotions. As a result 1) all user
feedback can contribute to learning about every emotion; 2) the robot can
generate trajectories for any emotion in the space instead of only a few
predefined ones; and 3) the robot can respond emotively to user-generated
natural language by mapping it to a target VAD. We introduce a method that
interactively learns to map trajectories to this latent space and test it in
simulation and in a user study. In experiments, we use a simple vacuum robot as
well as the Cassie biped.
- Abstract(参考訳): 私たちの目標は、ロボットがユーザの感情状態に応じて、あるいは自信レベルを表現して、モチベーションの高い方法で機能的なタスクを実行できるようにすることです。
従来の作業では、目標感情ごとにユーザフィードバックから独立したコスト関数を学習することを提案しており、ロボットは、遭遇した状況に対してタスクや環境固有の目的と共にそれを最適化することができる。
しかし、このアプローチは複数の感情をモデル化し、新しい感情に一般化できない場合に非効率である。
本研究では、感情が互いに独立していないという事実を活用する。それらは、Valence-Arousal-Dominance(VAD)の潜伏した空間を通して関連している。
私たちのキーとなるアイデアは、トラジェクトリがVADにユーザラベルでマップする方法のモデルを学ぶことです。
軌道マッピングと目標VADの間の距離を考えると、この単一のモデルはすべての感情に対するコスト関数を表現することができる。
その結果
1) すべてのユーザフィードバックが,すべての感情の学習に寄与する。
2) ロボットは, 空間内の感情の軌跡を, 予め定義された数個でなく生成することができる。
3)ロボットは,対象のVADにマッピングすることで,ユーザ生成自然言語に動機づけて応答することができる。
本稿では,この潜在空間に軌道をマッピングし,シミュレーションやユーザスタディで試す方法を対話的に学習する手法を提案する。
実験では、単純な真空ロボットとキャシー二足歩行を使用する。
関連論文リスト
- What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - e-Inu: Simulating A Quadruped Robot With Emotional Sentience [4.15623340386296]
本稿では,人間の感情を検知・理解できるロボットの理解と仮想シミュレーションについて論じる。
我々は、強化学習とソフトウェア工学の概念を組み合わせて、感情を理解できる四足歩行ロボットをシミュレートする。
ビデオ感情検出システムは、99.66%の精度で、ほぼ芸術の状況に匹敵する結果を生み出した。
論文 参考訳(メタデータ) (2023-01-03T06:28:45Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Preferences for Interactive Autonomy [1.90365714903665]
この論文は、他のより信頼性の高いデータモダリティを用いて、人間のユーザーから報酬関数を学習する試みである。
まず、まず、ペアワイズ比較、ベスト・オブ・マンティ選択、ランキング、スケールされた比較など、さまざまな形態の比較フィードバックを提案し、ロボットがこれらの形態の人間のフィードバックを使って報酬関数を推測する方法を説明する。
論文 参考訳(メタデータ) (2022-10-19T21:34:51Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z) - Learning User-Preferred Mappings for Intuitive Robot Control [28.183430654834307]
そこで本研究では,ロボットのクエリから,人間の好みのマッピングや事前認識のマッピングを学習する手法を提案する。
我々は、人間の地図に強い先行性があることを認識して、このアプローチをデータ効率良くする。
シミュレーションおよび実験結果から,入力とロボット動作のマッピングを学習することで,客観的および主観的パフォーマンスが向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-22T18:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。