論文の概要: Correcting Robot Plans with Natural Language Feedback
- arxiv url: http://arxiv.org/abs/2204.05186v1
- Date: Mon, 11 Apr 2022 15:22:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 13:28:49.950593
- Title: Correcting Robot Plans with Natural Language Feedback
- Title(参考訳): 自然言語フィードバックによるロボット計画の修正
- Authors: Pratyusha Sharma, Balakumar Sundaralingam, Valts Blukis, Chris Paxton,
Tucker Hermans, Antonio Torralba, Jacob Andreas, Dieter Fox
- Abstract要約: ロボットの修正のための表現的かつ柔軟なツールとして自然言語を探索する。
これらの変換により、ユーザは目標を正し、ロボットの動きを更新し、計画上のエラーから回復できる。
本手法により,シミュレーション環境や実環境において,複数の制約を合成し,未知のシーン,オブジェクト,文に一般化することが可能となる。
- 参考スコア(独自算出の注目度): 88.92824527743105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When humans design cost or goal specifications for robots, they often produce
specifications that are ambiguous, underspecified, or beyond planners' ability
to solve. In these cases, corrections provide a valuable tool for
human-in-the-loop robot control. Corrections might take the form of new goal
specifications, new constraints (e.g. to avoid specific objects), or hints for
planning algorithms (e.g. to visit specific waypoints). Existing correction
methods (e.g. using a joystick or direct manipulation of an end effector)
require full teleoperation or real-time interaction. In this paper, we explore
natural language as an expressive and flexible tool for robot correction. We
describe how to map from natural language sentences to transformations of cost
functions. We show that these transformations enable users to correct goals,
update robot motions to accommodate additional user preferences, and recover
from planning errors. These corrections can be leveraged to get 81% and 93%
success rates on tasks where the original planner failed, with either one or
two language corrections. Our method makes it possible to compose multiple
constraints and generalizes to unseen scenes, objects, and sentences in
simulated environments and real-world environments.
- Abstract(参考訳): 人間がロボットのコストや目標仕様を設計するとき、しばしば不明瞭で不明確で、プランナーの問題解決能力を超える仕様を作成する。
このような場合、修正は、ロボット制御のための貴重なツールとなる。
補正は、新しい目標仕様、新しい制約(例えば、特定のオブジェクトを避けるために)、または計画アルゴリズムのヒント(例えば、特定の経路ポイントを訪れるために)の形式をとる。
既存の補正方法(例えばジョイスティックの使用やエンドエフェクターの直接操作など)は完全な遠隔操作やリアルタイム操作を必要とする。
本稿では,ロボット訂正のための表現的かつ柔軟なツールとして自然言語を探索する。
本稿では,自然言語文からコスト関数の変換へのマッピングについて述べる。
これらの変換により、ユーザーは目標を正し、ロボットの動きをアップデートし、追加のユーザの好みを満たし、計画エラーから回復することができる。
これらの補正は、最初のプランナーが失敗したタスクで81%と93%の成功率を得るために利用することができる。
本手法により,複数の制約を設定でき,シミュレーション環境や実環境において未認識のシーン,オブジェクト,文に一般化できる。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Yell At Your Robot: Improving On-the-Fly from Language Corrections [84.09578841663195]
高いレベルのポリシーは、人間のフィードバックによって言語修正の形で容易に管理できることを示す。
このフレームワークは、ロボットがリアルタイムの言語フィードバックに迅速に適応するだけでなく、このフィードバックを反復的なトレーニングスキームに組み込むことを可能にする。
論文 参考訳(メタデータ) (2024-03-19T17:08:24Z) - Towards Generalizable Zero-Shot Manipulation via Translating Human
Interaction Plans [58.27029676638521]
我々は、人間の受動的ビデオが、そのようなジェネラリストロボットを学習するための豊富なデータ源であることを示す。
我々は、シーンの現在の画像とゴール画像から将来の手やオブジェクトの設定を予測する人間の計画予測器を学習する。
学習システムは、40個のオブジェクトに一般化する16以上の操作スキルを実現できることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:54:12Z) - simPLE: a visuotactile method learned in simulation to precisely pick,
localize, regrasp, and place objects [16.178331266949293]
本稿では,精密かつ汎用的なピック・アンド・プレイスの解法について検討する。
正確なピック・アンド・プレイスの解法としてシミュレートを提案する。
SimPLEは、オブジェクトCADモデルのみを前提に、オブジェクトの選択、再彫刻、配置を正確に学習する。
論文 参考訳(メタデータ) (2023-07-24T21:22:58Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - LaTTe: Language Trajectory TransformEr [33.7939079214046]
本研究は、汎用的な3次元ロボット軌道を修正するための柔軟な言語ベースのフレームワークを提案する。
自然言語入力と文脈イメージを3次元軌跡の変化にマッピングするために,自動回帰変換器を用いる。
シミュレーションや実生活実験を通じて、モデルが人間の意図に従うことができることを示す。
論文 参考訳(メタデータ) (2022-08-04T22:43:21Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Composing Pick-and-Place Tasks By Grounding Language [41.075844857146805]
制約のない言語指示に従って任意の物体を選定・配置するロボットシステムを提案する。
提案手法は,入力画像と言語表現からオブジェクトとその関係を推定する。
実世界のpr2ロボットを用いて得られた結果は,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-02-16T11:29:09Z) - Learning from Incremental Directional Corrections [9.45570271906093]
本研究では,ロボットが人間の修正から制御対象関数を漸進的に学習することを可能にする手法を提案する。
人間の補正は、その大きさに関わらず、ロボットの現在の動きを改善する方向を指していると仮定する。
提案手法は, 修正方向を用いて, 切削面法に基づく目的関数の推定値の更新を行う。
論文 参考訳(メタデータ) (2020-11-30T17:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。