論文の概要: Overcoming Referential Ambiguity in Language-Guided Goal-Conditioned
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.12758v1
- Date: Mon, 26 Sep 2022 15:07:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:28:34.367661
- Title: Overcoming Referential Ambiguity in Language-Guided Goal-Conditioned
Reinforcement Learning
- Title(参考訳): 言語誘導目標条件強化学習における規範的曖昧さの克服
- Authors: Hugo Caselles-Dupr\'e, Olivier Sigaud, Mohamed Chetouani
- Abstract要約: 学習者は、指示が対象の特徴を明瞭に参照した場合、教師の意図を誤解することができる。
認知科学から派生した2つの概念が、それらの参照あいまいさを解決するのにどのように役立つかを研究する。
これらのアイデアを、シミュレーションロボットタスクに2つの人工エージェントを組み込んだ教師/学習者の設定に適用する。
- 参考スコア(独自算出の注目度): 9.558051115598657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Teaching an agent to perform new tasks using natural language can easily be
hindered by ambiguities in interpretation. When a teacher provides an
instruction to a learner about an object by referring to its features, the
learner can misunderstand the teacher's intentions, for instance if the
instruction ambiguously refer to features of the object, a phenomenon called
referential ambiguity. We study how two concepts derived from cognitive
sciences can help resolve those referential ambiguities: pedagogy (selecting
the right instructions) and pragmatism (learning the preferences of the other
agents using inductive reasoning). We apply those ideas to a teacher/learner
setup with two artificial agents on a simulated robotic task (block-stacking).
We show that these concepts improve sample efficiency for training the learner.
- Abstract(参考訳): 自然言語を用いて新しいタスクを実行するようにエージェントに教えることは、解釈の曖昧さによって容易に妨げられる。
教師がその特徴を参照して対象について学習者に指示を行うと、学習者は教師の意図を誤解することができる。例えば、指示が対象の特徴を曖昧に言及している場合、参照曖昧性と呼ばれる現象は、教師の意図を誤解することができる。
認知科学から派生した2つの概念は、教育(正しい指示を選ぶ)と実践主義(帰納的推論を用いて他のエージェントの嗜好を学ぶ)という、これらの参照の曖昧さを解決するのにどのように役立つかを研究する。
シミュレーションロボット作業(ブロックスタッキング)に2つの人工エージェントを配置した教師/学習者に対して,これらのアイデアを適用した。
これらの概念が学習者の学習のサンプル効率を向上させることを示す。
関連論文リスト
- Situated Instruction Following [87.37244711380411]
本稿では,実世界のコミュニケーションの非特異性とあいまいさを取り入れた位置指示について述べる。
位置指示の意味は、人間の過去の行動と将来の行動を通じて自然に展開される。
我々の実験は、現在最先端の身体的指示追従(EIF)モデルが、位置する人間の意図の全体的理解を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-07-15T19:32:30Z) - An Incomplete Loop: Deductive, Inductive, and Abductive Learning in Large Language Models [99.31449616860291]
現代の言語モデル(LM)は、異なる方法で新しいタスクを実行することを学べる。
次の命令では、ターゲットタスクは自然言語で明示的に記述され、少数ショットプロンプトでは、タスクは暗黙的に指定される。
命令推論では、LMはインコンテキストの例を示し、自然言語のタスク記述を生成するように促される。
論文 参考訳(メタデータ) (2024-04-03T19:31:56Z) - LiFT: Unsupervised Reinforcement Learning with Foundation Models as
Teachers [59.69716962256727]
本研究では,人間からのフィードバックを伴わずに意味論的に意味のある行動を取得するための強化学習エージェントを指導する枠組みを提案する。
本フレームワークでは,大規模言語モデルから学習環境に根ざしたタスク命令を受信する。
我々は,オープンエンドのMineDojo環境において,意味的に意味のあるスキルを学習できることを実証した。
論文 参考訳(メタデータ) (2023-12-14T14:07:41Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [66.79173000135717]
本研究は、カンナダ語とマラティ語という2つのインドの言語教育に適用する。
我々は、形態素構文(単語順、一致、ケースマーキング、または単語形成の学習)と意味論(語彙の学習)に関する疑問に答える自然なテキストコーパスから記述を抽出する。
我々は,北米の学校から言語教育者の助けを借りて手作業による評価を行い,教材が授業の準備や学習者評価に利用できる可能性を見出した。
論文 参考訳(メタデータ) (2023-10-27T18:17:29Z) - We're Afraid Language Models Aren't Modeling Ambiguity [136.8068419824318]
あいまいさの管理は人間の言語理解の重要な部分です。
文中のあいまいさは,他の文との係り受け関係に与える影響によって特徴付けられる。
我々は,多ラベルNLIモデルが曖昧さによって誤解を招く野生の政治的主張にフラグを付けることができることを示す。
論文 参考訳(メタデータ) (2023-04-27T17:57:58Z) - Language-Conditioned Reinforcement Learning to Solve Misunderstandings
with Action Corrections [0.0]
本稿では,強化学習に基づくロボット指導追従のためのインクリメンタル・アクション・リペアの最初の形式化と実験的検証を行う。
本研究では、強化学習エージェントが、誤理解した指示の漸進的な修正を理解するのに成功することを示す。
論文 参考訳(メタデータ) (2022-11-18T11:29:04Z) - Teacher Perception of Automatically Extracted Grammar Concepts for L2
Language Learning [91.49622922938681]
本稿では,文法の異なる側面の記述を自動的に発見・可視化する自動フレームワークを提案する。
具体的には、形態素構文と意味論に関する疑問に答える自然なテキストコーパスから記述を抽出する。
この手法をインド語、カンナダ語、マラタイ語に応用するが、これは英語とは異なり、十分に発達した教育資源を持たない。
論文 参考訳(メタデータ) (2022-06-10T14:52:22Z) - Grounding Hindsight Instructions in Multi-Goal Reinforcement Learning
for Robotics [14.863872352905629]
本稿では,自然言語の目標表現に対するスパース報酬を用いたロボット強化学習に焦点を当てた。
まず,専門家のフィードバックを生かした後向きの指示再生機構を提案する。
次に,言語的後見命令を生成するセク2seqモデルを提案する。
論文 参考訳(メタデータ) (2022-04-08T22:01:36Z) - Pedagogical Demonstrations and Pragmatic Learning in Artificial
Tutor-Learner Interactions [8.715518445626826]
本稿では,複数の目標を持つ環境において,両方の参加者が人工エージェントであるチューター・ラーナー・セットアップにおけるそのようなメカニズムの実装について検討する。
教師からの教育と学習者からの実践主義を用いて,実演による標準学習よりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-02-28T21:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。