論文の概要: Learning Representations that Enable Generalization in Assistive Tasks
- arxiv url: http://arxiv.org/abs/2212.03175v1
- Date: Mon, 5 Dec 2022 18:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 16:14:23.769026
- Title: Learning Representations that Enable Generalization in Assistive Tasks
- Title(参考訳): 支援課題における一般化を可能にする学習表現
- Authors: Jerry Zhi-Yang He, Aditi Raghunathan, Daniel S. Brown, Zackory
Erickson, Anca D. Dragan
- Abstract要約: 本稿では,ロボットがユーザの支援を行う支援タスクにおける一般化の実現に焦点をあてる。
環境(あるいは人口)パラメータを符号化し、ロボットが単独で行うタスクでうまく機能するsim2realメソッドは、支援においてうまく機能しない。
- 参考スコア(独自算出の注目度): 45.62648124988644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in sim2real has successfully enabled robots to act in physical
environments by training in simulation with a diverse ''population'' of
environments (i.e. domain randomization). In this work, we focus on enabling
generalization in assistive tasks: tasks in which the robot is acting to assist
a user (e.g. helping someone with motor impairments with bathing or with
scratching an itch). Such tasks are particularly interesting relative to prior
sim2real successes because the environment now contains a human who is also
acting. This complicates the problem because the diversity of human users
(instead of merely physical environment parameters) is more difficult to
capture in a population, thus increasing the likelihood of encountering
out-of-distribution (OOD) human policies at test time. We advocate that
generalization to such OOD policies benefits from (1) learning a good latent
representation for human policies that test-time humans can accurately be
mapped to, and (2) making that representation adaptable with test-time
interaction data, instead of relying on it to perfectly capture the space of
human policies based on the simulated population only. We study how to best
learn such a representation by evaluating on purposefully constructed OOD test
policies. We find that sim2real methods that encode environment (or population)
parameters and work well in tasks that robots do in isolation, do not work well
in assistance. In assistance, it seems crucial to train the representation
based on the history of interaction directly, because that is what the robot
will have access to at test time. Further, training these representations to
then predict human actions not only gives them better structure, but also
enables them to be fine-tuned at test-time, when the robot observes the partner
act. https://adaptive-caregiver.github.io.
- Abstract(参考訳): sim2realでの最近の研究により、ロボットは様々な環境(すなわちドメインのランダム化)の「人口」をシミュレーションで訓練することで、物理的環境での行動に成功している。
本研究は,ロボットがユーザを支援するために行動しているタスク(入浴時やかゆみをひっかいて運動障害のある人を助けるなど)の,補助作業における一般化を可能にすることに焦点を当てる。
このようなタスクは、これまでのsim2realの成功と比較して特に興味深い。
これは、人間ユーザーの多様性(単に物理的な環境パラメータではなく)が人口を捕えるのが困難であるため、テスト時に人為的政策(OOD)に遭遇する可能性を高めるため、問題を複雑化する。
このようなOOD政策の一般化は,(1)テストタイム人間が正確に対応可能な人的政策の優れた潜伏表現を学習すること,(2)テストタイムのインタラクションデータに適応させることによって,シミュレーションされた人口のみに基づく人的政策の空間を完璧に捉えることに頼るのではなく,その表現をテストタイムのインタラクションデータに適応させることから恩恵を受けることを主張する。
我々は,OODテストポリシーを意図的に構築した上で評価することで,このような表現を最もよく学習する方法を検討する。
環境(あるいは人口)パラメータを符号化し、ロボットが単独で行うタスクでうまく機能するsim2realメソッドは、支援においてうまく機能しない。
支援では、ロボットがテスト時にアクセスできるようにするため、直接対話の歴史に基づいて表現を訓練することが重要であるように思える。
さらに、これらの表現をトレーニングして人間の行動を予測することで、より優れた構造を与えるだけでなく、ロボットがパートナーの行動を観察するとき、テスト時に微調整できる。
https://adaptive-caregiver.github.io。
関連論文リスト
- Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot Handovers [35.386426373890615]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Quantifying Assistive Robustness Via the Natural-Adversarial Frontier [40.125563987538044]
RIGIDは、ロボット報酬の最小化と人間の行動とをトレードオフする対人政策の訓練方法である。
補助ギムタスクでは、RIGIDを用いて、標準的な協調強化学習のパフォーマンスを分析する。
また,フロンティアのRIGIDを,専門家の対人インタラクションで特定された障害と,ユーザインタラクション中に自然に発生する障害とを比較した。
論文 参考訳(メタデータ) (2023-10-16T17:34:54Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Latent Representations to Co-Adapt to Humans [12.71953776723672]
非定常的な人間はロボット学習者に挑戦しています。
本稿では,ロボットが動的人間と協調して適応できるアルゴリズム形式について紹介する。
論文 参考訳(メタデータ) (2022-12-19T16:19:24Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。