論文の概要: Zero-shot Task Adaptation using Natural Language
- arxiv url: http://arxiv.org/abs/2106.02972v1
- Date: Sat, 5 Jun 2021 21:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:52:06.814127
- Title: Zero-shot Task Adaptation using Natural Language
- Title(参考訳): 自然言語を用いたゼロショットタスク適応
- Authors: Prasoon Goyal, Raymond J. Mooney, Scott Niekum
- Abstract要約: 本稿では,エージェントにデモンストレーションと説明の両方を付与する,新しい環境を提案する。
テンプレートベースの記述を使用すれば,目標タスクの95%以上を達成できる。
- 参考スコア(独自算出の注目度): 43.807555235240365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imitation learning and instruction-following are two common approaches to
communicate a user's intent to a learning agent. However, as the complexity of
tasks grows, it could be beneficial to use both demonstrations and language to
communicate with an agent. In this work, we propose a novel setting where an
agent is given both a demonstration and a description, and must combine
information from both the modalities. Specifically, given a demonstration for a
task (the source task), and a natural language description of the differences
between the demonstrated task and a related but different task (the target
task), our goal is to train an agent to complete the target task in a zero-shot
setting, that is, without any demonstrations for the target task. To this end,
we introduce Language-Aided Reward and Value Adaptation (LARVA) which, given a
source demonstration and a linguistic description of how the target task
differs, learns to output a reward / value function that accurately describes
the target task. Our experiments show that on a diverse set of adaptations, our
approach is able to complete more than 95% of target tasks when using
template-based descriptions, and more than 70% when using free-form natural
language.
- Abstract(参考訳): 模倣学習と命令追従は、ユーザの意図を学習エージェントに伝える一般的な2つのアプローチである。
しかし、タスクの複雑さが増すにつれて、デモンストレーションと言語の両方を使用してエージェントと通信することが有益である。
本研究では,エージェントが実演と記述の両方を付与し,モダリティの両面からの情報を組み合わせる,新しい設定を提案する。
具体的には、タスク(ソースタスク)のデモンストレーションと、実証されたタスクと関連するが異なるタスク(ターゲットタスク)の違いを自然言語で記述することで、ターゲットタスクをゼロショット設定で完了させるようにエージェントに訓練すること、すなわち、ターゲットタスクのデモを一切行わないようにする。
この目的のために、LARVA(Language-Aided Reward and Value Adaptation)を導入し、ターゲットタスクの相違点に関する実演と言語記述から、ターゲットタスクを正確に記述した報酬/値関数を出力することを学ぶ。
実験により,多様な適応系において,テンプレートベース記述を用いた場合の目標タスクの95%以上,自由形式自然言語を使用する場合の70%以上を完了できることを示した。
関連論文リスト
- UniverSLU: Universal Spoken Language Understanding for Diverse Tasks with Natural Language Instructions [64.50935101415776]
我々は,様々な音声言語理解(SLU)タスクを共同で行う単一モデルを構築した。
我々は17のデータセットと9の言語にまたがる12の音声分類とシーケンス生成タスクタイプに対して,1つのマルチタスク学習モデル"UniverSLU"の有効性を実証した。
論文 参考訳(メタデータ) (2023-10-04T17:10:23Z) - Did You Read the Instructions? Rethinking the Effectiveness of Task
Definitions in Instruction Learning [74.70157466822612]
教科学習におけるタスク定義の役割を体系的に研究する。
タスク出力を記述する内容を削除すると,モデルの性能が大幅に低下することがわかった。
本稿では,モデルのタスク命令の活用を支援するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T21:11:24Z) - Language-guided Task Adaptation for Imitation Learning [40.1007184209417]
本稿では,自然言語でコミュニケーションするタスク間の差異を指標として,関連するタスクのデモンストレーションからタスクを学習する,新たな設定を提案する。
提案した設定では、低労力の言語記述を提供することで、他のタスクからのデモを再利用することができ、エージェントエラーの修正にフィードバックを提供することもできる。
論文 参考訳(メタデータ) (2023-01-24T00:56:43Z) - Using Both Demonstrations and Language Instructions to Efficiently Learn
Robotic Tasks [21.65346551790888]
DeL-TaCoは、視覚的なデモンストレーションと言語指導という2つのコンポーネントからなるタスク埋め込みにロボットポリシーを条件付ける方法である。
我々の知る限り、デモと言語埋め込みの両方にマルチタスクロボット操作ポリシーを同時に条件付けすることで、モダリティのみの条件付けよりもサンプル効率と一般化が向上することを示す最初の研究である。
論文 参考訳(メタデータ) (2022-10-10T08:06:58Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - Learning to Follow Language Instructions with Compositional Policies [22.778677208048475]
本稿では,目標達成タスクからなる環境下で自然言語命令を実行することを学習するフレームワークを提案する。
我々は強化学習エージェントを訓練し、その後ブール代数を通して構成できる値関数を学習する。
我々は、Webスケールコーパスで事前訓練されたSeq2seqモデルを微調整し、言語を論理式にマッピングする。
論文 参考訳(メタデータ) (2021-10-09T21:28:26Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。