論文の概要: Avant-Satie! Using ERIK to encode task-relevant expressivity into the
animation of autonomous social robots
- arxiv url: http://arxiv.org/abs/2203.01176v1
- Date: Wed, 2 Mar 2022 15:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 16:08:20.318791
- Title: Avant-Satie! Using ERIK to encode task-relevant expressivity into the
animation of autonomous social robots
- Title(参考訳): Avant-Satie!
ERIKを用いて自律型社会ロボットのアニメーションにタスク関連表現性をエンコードする
- Authors: Tiago Ribeiro, Ana Paiva
- Abstract要約: ERIKは、アルゴリズムと限定されたユーザインタラクションシナリオの両方において、以前に提示され評価された表現的逆キネマティクス技術である。
これまでのシナリオから,サポート対象のクレームのさらなる検証を目的とした,新たなシナリオを開発した。
我々の実験は完全自律型アデリーノロボットを特徴とし、ERIKは、与えられたタスクの実行中に、その非言語的表現キューを通して、ユーザの行動選択を指示するために使用できると結論付けている。
- 参考スコア(独自算出の注目度): 3.575298872211924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ERIK is an expressive inverse kinematics technique that has been previously
presented and evaluated both algorithmically and in a limited user-interaction
scenario. It allows autonomous social robots to convey posture-based expressive
information while gaze-tracking users. We have developed a new scenario aimed
at further validating some of the unsupported claims from the previous
scenario. Our experiment features a fully autonomous Adelino robot, and
concludes that ERIK can be used to direct a user's choice of actions during
execution of a given task, fully through its non-verbal expressive queues.
- Abstract(参考訳): ERIKは、アルゴリズムと限定されたユーザインタラクションシナリオの両方において、以前に提示され評価された表現的逆キネマティクス技術である。
自律型社会ロボットは、視線追跡中に姿勢に基づく表現情報を伝達することができる。
これまでのシナリオから,サポート対象のクレームのさらなる検証を目的とした,新たなシナリオを開発した。
実験では,完全自律型アデリーノロボットを特徴とし,erikは与えられたタスクの実行中のユーザのアクション選択を,非言語表現型キューを通じて指示するために使用できると結論づけた。
関連論文リスト
- In-Context Imitation Learning via Next-Token Prediction [25.63412917032012]
In-Context Robot Transformer (ICRT) は、言語データや報酬関数に頼ることなく、感覚運動の軌道上で自己回帰予測を行う。
ICRTは、プロンプトとトレーニングデータの両方とは異なる環境設定であっても、プロンプトによって指定された新しいタスクに適応することができる。
論文 参考訳(メタデータ) (2024-08-28T17:50:19Z) - Comparing Apples to Oranges: LLM-powered Multimodal Intention Prediction in an Object Categorization Task [17.190635800969456]
本稿では,ロボットとの協調的な対象分類タスクにおいて,人間の意図を推定するために,Large Language Modelsを用いて検討する。
本研究では, ユーザの身振り, 身振り, 表情などの非言語的手がかりを, ユーザの意図を予測するために, 環境状態やユーザの言葉的手がかりと統合する, 新たなマルチモーダルアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-12T12:15:14Z) - Rethinking Annotator Simulation: Realistic Evaluation of Whole-Body PET Lesion Interactive Segmentation Methods [26.55942230051388]
実際のユーザスタディやシミュレートされたアノテータによる対話的セグメンテーションモデルの評価を行う。
実際のユーザスタディは高価で大規模に制限されることが多いが、シミュレーションアノテータ(ロボットユーザとしても知られる)はモデルパフォーマンスを過大評価する傾向がある。
本稿では,クリック変動やアノテータ間の不一致といった人間的要因を取り入れた,より現実的なロボットユーザを提案する。
論文 参考訳(メタデータ) (2024-04-02T10:19:17Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Proactive Human-Robot Interaction using Visuo-Lingual Transformers [0.0]
人間は人間の相互作用を通して文脈を推測するために、潜伏したビスオ・言語的手がかりを抽出する能力を持っている。
本研究では,シーンからの視覚的手がかり,ユーザからの言語コマンド,事前オブジェクト間相互作用の知識を用いて,ユーザが達成しようとしている目標を積極的に予測する学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T00:50:21Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on Scene Graphs [81.15889805560333]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - Action-conditioned Deep Visual Prediction with RoAM, a new Indoor Human
Motion Dataset for Autonomous Robots [1.7778609937758327]
ロボット自律運動(RoAM)ビデオデータセットについて紹介する。
このロボットは、ロボットのエゴビジョンから様々な人間の動きを記録する様々な屋内環境において、カスタムメイドのタートルボット3バーガーロボットで収集される。
データセットには、LiDARスキャンの同期記録や、静的で動く人間のエージェントの周りを移動する際にロボットが取るすべての制御アクションも含まれている。
論文 参考訳(メタデータ) (2023-06-28T00:58:44Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。