論文の概要: Learning User-Preferred Mappings for Intuitive Robot Control
- arxiv url: http://arxiv.org/abs/2007.11627v1
- Date: Wed, 22 Jul 2020 18:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 23:14:23.523069
- Title: Learning User-Preferred Mappings for Intuitive Robot Control
- Title(参考訳): 直観型ロボット制御のためのユーザ優先マッピングの学習
- Authors: Mengxi Li, Dylan P. Losey, Jeannette Bohg, and Dorsa Sadigh
- Abstract要約: そこで本研究では,ロボットのクエリから,人間の好みのマッピングや事前認識のマッピングを学習する手法を提案する。
我々は、人間の地図に強い先行性があることを認識して、このアプローチをデータ効率良くする。
シミュレーションおよび実験結果から,入力とロボット動作のマッピングを学習することで,客観的および主観的パフォーマンスが向上することが示唆された。
- 参考スコア(独自算出の注目度): 28.183430654834307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When humans control drones, cars, and robots, we often have some preconceived
notion of how our inputs should make the system behave. Existing approaches to
teleoperation typically assume a one-size-fits-all approach, where the
designers pre-define a mapping between human inputs and robot actions, and
every user must adapt to this mapping over repeated interactions. Instead, we
propose a personalized method for learning the human's preferred or
preconceived mapping from a few robot queries. Given a robot controller, we
identify an alignment model that transforms the human's inputs so that the
controller's output matches their expectations. We make this approach
data-efficient by recognizing that human mappings have strong priors: we expect
the input space to be proportional, reversable, and consistent. Incorporating
these priors ensures that the robot learns an intuitive mapping from few
examples. We test our learning approach in robot manipulation tasks inspired by
assistive settings, where each user has different personal preferences and
physical capabilities for teleoperating the robot arm. Our simulated and
experimental results suggest that learning the mapping between inputs and robot
actions improves objective and subjective performance when compared to manually
defined alignments or learned alignments without intuitive priors. The
supplementary video showing these user studies can be found at:
https://youtu.be/rKHka0_48-Q.
- Abstract(参考訳): 人間がドローン、車、ロボットを制御するとき、私たちは入力がシステムがどのように振る舞うべきかという先入観を持つことが多い。
既存の遠隔操作のアプローチでは、設計者は人間の入力とロボットのアクションのマッピングを事前に定義し、ユーザーはこのマッピングを反復的なインタラクションに適応させなければならない。
代わりに,ロボットクエリから人間の好みや先入観を学習するためのパーソナライズされた手法を提案する。
ロボットコントローラが与えられたら、人間の入力を変換してコントローラの出力が期待に合致するようにアライメントモデルを識別する。
我々は、人間のマッピングに強い先行性があることを認識して、このアプローチをデータ効率にします。
これらの先行を組み込むことで、ロボットはいくつかの例から直感的なマッピングを学ぶことができる。
我々は,ロボットアームを遠隔操作するための個人的嗜好や身体的能力が異なる支援的設定に触発されたロボット操作タスクにおける学習アプローチをテストする。
シミュレーションおよび実験の結果から,入力とロボット動作のマッピングの学習は,手作業で定義されたアライメントや学習アライメントに比較して,主観的および主観的パフォーマンスが向上することが示唆された。
これらのユーザー研究を示す追加ビデオは、https://youtu.be/rkhka0_48-qで見ることができる。
関連論文リスト
- Know your limits! Optimize the robot's behavior through self-awareness [11.021217430606042]
最近の人間ロボット模倣アルゴリズムは、高精度な人間の動きを追従することに焦点を当てている。
本稿では,ロボットが参照を模倣する際の動作を予測できるディープラーニングモデルを提案する。
我々のSAW(Self-AWare Model)は、転倒確率、基準運動への固執、滑らかさといった様々な基準に基づいて、潜在的なロボットの挙動をランク付けする。
論文 参考訳(メタデータ) (2024-09-16T14:14:58Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Learning Preferences for Interactive Autonomy [1.90365714903665]
この論文は、他のより信頼性の高いデータモダリティを用いて、人間のユーザーから報酬関数を学習する試みである。
まず、まず、ペアワイズ比較、ベスト・オブ・マンティ選択、ランキング、スケールされた比較など、さまざまな形態の比較フィードバックを提案し、ロボットがこれらの形態の人間のフィードバックを使って報酬関数を推測する方法を説明する。
論文 参考訳(メタデータ) (2022-10-19T21:34:51Z) - Projection Mapping Implementation: Enabling Direct Externalization of
Perception Results and Action Intent to Improve Robot Explainability [62.03014078810652]
既存の非言語的手がかり、例えば目視や腕の動きに関する研究は、ロボットの内部状態を正確に示さないかもしれない。
状態をロボットの動作環境に直接投影することは、直接的で正確でより健全であるという利点がある。
論文 参考訳(メタデータ) (2020-10-05T18:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。