論文の概要: Language-Conditioned Reinforcement Learning to Solve Misunderstandings
with Action Corrections
- arxiv url: http://arxiv.org/abs/2211.10168v1
- Date: Fri, 18 Nov 2022 11:29:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 15:55:12.351494
- Title: Language-Conditioned Reinforcement Learning to Solve Misunderstandings
with Action Corrections
- Title(参考訳): 行動修正による誤解解消のための言語条件強化学習
- Authors: Frank R\"oder and Manfred Eppe
- Abstract要約: 本稿では,強化学習に基づくロボット指導追従のためのインクリメンタル・アクション・リペアの最初の形式化と実験的検証を行う。
本研究では、強化学習エージェントが、誤理解した指示の漸進的な修正を理解するのに成功することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-to-human conversation is not just talking and listening. It is an
incremental process where participants continually establish a common
understanding to rule out misunderstandings. Current language understanding
methods for intelligent robots do not consider this. There exist numerous
approaches considering non-understandings, but they ignore the incremental
process of resolving misunderstandings. In this article, we present a first
formalization and experimental validation of incremental action-repair for
robotic instruction-following based on reinforcement learning. To evaluate our
approach, we propose a collection of benchmark environments for action
correction in language-conditioned reinforcement learning, utilizing a
synthetic instructor to generate language goals and their corresponding
corrections. We show that a reinforcement learning agent can successfully learn
to understand incremental corrections of misunderstood instructions.
- Abstract(参考訳): 人間同士の会話は、話すことや聞くことだけではない。
参加者が誤解を排除するための共通理解を継続的に確立する段階的なプロセスである。
インテリジェントロボットの現在の言語理解手法では、これを考慮していない。
非理解を考慮に入れるアプローチは数多く存在するが、誤解を解決するインクリメンタルなプロセスを無視している。
本稿では,強化学習に基づくロボット指導追従のためのインクリメンタル・アクション・リペアの最初の形式化と実験的検証を示す。
本手法を評価するために,合成インストラクターを用いて言語目標とその修正を行う言語条件強化学習における行動補正のためのベンチマーク環境の収集を提案する。
強化学習エージェントは、誤解された命令のインクリメンタルな修正を理解することができる。
関連論文リスト
- SECURE: Semantics-aware Embodied Conversation under Unawareness for Lifelong Robot Learning [17.125080112897102]
本稿では,ロボットが指示されたタスクを解く上で鍵となる概念を知らない,困難な対話型タスク学習シナリオについて論じる。
本稿では,このような問題を解決するための対話型タスク学習フレームワークSECUREを提案する。
SECUREを用いて、ロボットはミスをしたときのユーザの補正フィードバックから学習するだけでなく、指示されたタスクを解決するための新しい概念に関する有用な証拠を明らかにするための戦略的対話決定も行う。
論文 参考訳(メタデータ) (2024-09-26T11:40:07Z) - No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - A Definition of Continual Reinforcement Learning [69.56273766737527]
強化学習問題の標準的な見方では、エージェントの目標は、長期的な報酬を最大化するポリシーを効率的に識別することである。
継続的強化学習とは、最高のエージェントが決して学習をやめない状態を指す。
エージェントの分析とカタログ化のための新しい数学的言語を通じて「学習をやめることはない」エージェントの概念を定式化する。
論文 参考訳(メタデータ) (2023-07-20T17:28:01Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - Overcoming Referential Ambiguity in Language-Guided Goal-Conditioned
Reinforcement Learning [8.715518445626826]
学習者は、指示が対象の特徴を明瞭に参照した場合、教師の意図を誤解することができる。
認知科学から派生した2つの概念が、それらの参照あいまいさを解決するのにどのように役立つかを研究する。
これらのアイデアを、シミュレーションロボットタスクに2つの人工エージェントを組み込んだ教師/学習者の設定に適用する。
論文 参考訳(メタデータ) (2022-09-26T15:07:59Z) - Grounding Hindsight Instructions in Multi-Goal Reinforcement Learning
for Robotics [14.863872352905629]
本稿では,自然言語の目標表現に対するスパース報酬を用いたロボット強化学習に焦点を当てた。
まず,専門家のフィードバックを生かした後向きの指示再生機構を提案する。
次に,言語的後見命令を生成するセク2seqモデルを提案する。
論文 参考訳(メタデータ) (2022-04-08T22:01:36Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - Language-Conditioned Imitation Learning for Robot Manipulation Tasks [39.40937105264774]
本研究では,非構造化自然言語を模倣学習に組み込む手法を提案する。
訓練時には、専門家は、基礎となる意図を説明するために、言語記述とともにデモンストレーションを行うことができる。
トレーニングプロセスはこれらの2つのモードを相互に関連付け、言語、知覚、動きの相関を符号化する。
結果として得られた言語条件のvisuomotorポリシーは、実行時に新しいヒューマンコマンドと命令で条件付けできる。
論文 参考訳(メタデータ) (2020-10-22T21:49:08Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z) - Rethinking Supervised Learning and Reinforcement Learning in
Task-Oriented Dialogue Systems [58.724629408229205]
本稿では、従来の教師あり学習とシミュレータなしの逆学習法を用いて、最先端のRL法に匹敵する性能を実現する方法を示す。
我々の主な目的は、教師あり学習で強化学習に勝ることではなく、タスク指向対話システムの最適化における強化学習と教師あり学習の役割を再考する価値を示すことである。
論文 参考訳(メタデータ) (2020-09-21T12:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。