論文の概要: Aligning Robot Representations with Humans
- arxiv url: http://arxiv.org/abs/2205.07882v1
- Date: Sun, 15 May 2022 15:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 02:26:35.578113
- Title: Aligning Robot Representations with Humans
- Title(参考訳): 人間によるロボット表現の調整
- Authors: Andreea Bobu, Andi Peng
- Abstract要約: 主な問題は、ある環境で学んだ知識を別の環境に移す方法である。
我々は、人間が世界でシステム成功の究極的な評価者になるので、ロボットに重要なタスクの側面を伝えるのに最も適していると仮定する。
このアプローチをインタラクティブシステムの構築に利用し、高度な協調ロボットをより良く開発するための今後の方向性を提供する3つの分野を強調します。
- 参考スコア(独自算出の注目度): 5.482532589225552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As robots are increasingly deployed in real-world scenarios, a key question
is how to best transfer knowledge learned in one environment to another, where
shifting constraints and human preferences render adaptation challenging. A
central challenge remains that often, it is difficult (perhaps even impossible)
to capture the full complexity of the deployment environment, and therefore the
desired tasks, at training time. Consequently, the representation, or
abstraction, of the tasks the human hopes for the robot to perform in one
environment may be misaligned with the representation of the tasks that the
robot has learned in another. We postulate that because humans will be the
ultimate evaluator of system success in the world, they are best suited to
communicating the aspects of the tasks that matter to the robot. Our key
insight is that effective learning from human input requires first explicitly
learning good intermediate representations and then using those representations
for solving downstream tasks. We highlight three areas where we can use this
approach to build interactive systems and offer future directions of work to
better create advanced collaborative robots.
- Abstract(参考訳): ロボットがますます現実世界のシナリオに展開されるにつれ、重要な疑問は、ある環境で学んだ知識を別の環境に最もよく移す方法である。
中心となる課題は、多くの場合、トレーニング時にデプロイメント環境の完全な複雑さ、それゆえ必要なタスクを捉えることが(おそらくは不可能)困難であることです。
したがって、人間がロボットが一つの環境で実行したいと願うタスクの表現、あるいは抽象化は、ロボットが他の環境で学んだタスクの表現とミスアライメントされる可能性がある。
我々は、人間が世界でシステム成功の究極的な評価者になるので、ロボットに重要なタスクの側面を伝えるのに最も適していると仮定する。
私たちの重要な洞察は、人間の入力から効果的な学習には、まず良い中間表現を明示的に学習し、その表現を使って下流のタスクを解決する必要があります。
このアプローチをインタラクティブシステムの構築に利用し、高度な協調ロボットをより良く開発するための今後の方向性を提供する3つの分野を強調します。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Grounding Robot Policies with Visuomotor Language Guidance [15.774237279917594]
ロボットポリシーを現在の状況に基盤付けるためのエージェントベースのフレームワークを提案する。
提案するフレームワークは、特定の役割のために設計された会話エージェントのセットで構成されている。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Extended Reality for Enhanced Human-Robot Collaboration: a Human-in-the-Loop Approach [2.336967926255341]
人間とロボットのコラボレーションは、機械の強さと精度と人間の創造性と知覚的理解を組み合わせることで、これらの課題に取り組みます。
本稿では,人間のループ内原理を取り入れた自律型機械学習ベースのマニピュレータの実装フレームワークを提案する。
概念的枠組みは、ロボット学習プロセスに直接人間の関与を予測し、より高い適応性とタスクの一般化をもたらす。
論文 参考訳(メタデータ) (2024-03-21T17:50:22Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Semantic-Aware Environment Perception for Mobile Human-Robot Interaction [2.309914459672557]
本稿では,移動ロボットのための視覚ベースシステムについて,アプリオリ知識を付加せずにセマンティック・アウェア環境を実現する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
論文 参考訳(メタデータ) (2022-11-07T08:49:45Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - Auditing Robot Learning for Safety and Compliance during Deployment [4.742825811314168]
我々は、ロボット学習アルゴリズムを人間との互換性を確認するのにいかに最適かを研究する。
これは、ロボット学習コミュニティ全体の努力を必要とする難しい問題だと考えています。
論文 参考訳(メタデータ) (2021-10-12T02:40:11Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。