論文の概要: Aligning Robot and Human Representations
- arxiv url: http://arxiv.org/abs/2302.01928v2
- Date: Sun, 28 Jan 2024 15:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 00:55:33.468547
- Title: Aligning Robot and Human Representations
- Title(参考訳): 適応型ロボットと人間表現
- Authors: Andreea Bobu, Andi Peng, Pulkit Agrawal, Julie Shah, Anca D. Dragan
- Abstract要約: ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
- 参考スコア(独自算出の注目度): 50.070982136315784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To act in the world, robots rely on a representation of salient task aspects:
for example, to carry a coffee mug, a robot may consider movement efficiency or
mug orientation in its behavior. However, if we want robots to act for and with
people, their representations must not be just functional but also reflective
of what humans care about, i.e. they must be aligned. We observe that current
learning approaches suffer from representation misalignment, where the robot's
learned representation does not capture the human's representation. We suggest
that because humans are the ultimate evaluator of robot performance, we must
explicitly focus our efforts on aligning learned representations with humans,
in addition to learning the downstream task. We advocate that current
representation learning approaches in robotics should be studied from the
perspective of how well they accomplish the objective of representation
alignment. We mathematically define the problem, identify its key desiderata,
and situate current methods within this formalism. We conclude by suggesting
future directions for exploring open challenges.
- Abstract(参考訳): 例えば、コーヒーマグカップを運ぶ場合、ロボットはその動作において移動効率やマグの向きを考えることができる。
しかし、もしロボットに人々のために行動させたいなら、その表現は単なる機能的なものではなく、人間の関心を反映したものでなければならない。
現在の学習アプローチは、ロボットが学習した表現が人間の表現を捉えないような、表現の不一致に苦しむのを観察する。
我々は,人間はロボット性能の究極的な評価者であるため,下流の課題の学習に加えて,学習した表現と人間との整合性を重視しなければならないことを示唆する。
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
我々は、問題を数学的に定義し、その鍵デシデラタを特定し、この形式の中に現在の方法を導入する。
オープンな課題を探求するための今後の方向性を提案して結論付けます。
関連論文リスト
- HRP: Human Affordances for Robotic Pre-Training [15.92416819748365]
本稿では,手,物,接触の事前学習のためのフレームワークを提案する。
実世界の5つのタスクにおいて、この空き時間事前学習がパフォーマンスを最低15%向上させることを実験的に実証した(3000以上のロボット試験を用いて)。
論文 参考訳(メタデータ) (2024-07-26T17:59:52Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - A Review of Scene Representations for Robot Manipulators [0.0]
我々は、実世界のセンシングから構築され、下流のタスクを知らせるために使用される表現に焦点を当てる。
シーンの表現は、ロボットの種類、知覚モダリティ、ロボットが行うように設計されたタスクによって大きく異なる。
論文 参考訳(メタデータ) (2022-12-22T20:32:19Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Reasoning about Counterfactuals to Improve Human Inverse Reinforcement
Learning [5.072077366588174]
人間は自然に、観察可能な行動について推論することで、他のエージェントの信念や欲求を推測する。
我々は,ロボットの意思決定に対する学習者の現在の理解を,人間のIRLモデルに組み込むことを提案する。
また,人間が見えない環境下でのロボットの動作を予測しにくいことを推定するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-03-03T17:06:37Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z) - Quantifying Hypothesis Space Misspecification in Learning from
Human-Robot Demonstrations and Physical Corrections [34.53709602861176]
最近の研究は、ロボットがそのようなインプットを使って意図した目的を学習する方法に焦点を当てている。
本研究では,2種類の人間入力から学習する7自由度ロボットマニピュレータについて実験を行った。
論文 参考訳(メタデータ) (2020-02-03T18:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。