論文の概要: Learning to Execute Actions or Ask Clarification Questions
- arxiv url: http://arxiv.org/abs/2204.08373v2
- Date: Wed, 20 Apr 2022 19:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-23 09:54:06.192058
- Title: Learning to Execute Actions or Ask Clarification Questions
- Title(参考訳): 行動のエクササイズを学ぶか,あるいは質問する
- Authors: Zhengxiang Shi, Yue Feng, Aldo Lipani
- Abstract要約: 命令をいつ要求するか、実行すべきかを判断できる新しいビルダーエージェントモデルを提案する。
実験結果から,本モデルが協調作業における最先端性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 9.784428580459776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative tasks are ubiquitous activities where a form of communication
is required in order to reach a joint goal. Collaborative building is one of
such tasks. We wish to develop an intelligent builder agent in a simulated
building environment (Minecraft) that can build whatever users wish to build by
just talking to the agent. In order to achieve this goal, such agents need to
be able to take the initiative by asking clarification questions when further
information is needed. Existing works on Minecraft Corpus Dataset only learn to
execute instructions neglecting the importance of asking for clarifications. In
this paper, we extend the Minecraft Corpus Dataset by annotating all builder
utterances into eight types, including clarification questions, and propose a
new builder agent model capable of determining when to ask or execute
instructions. Experimental results show that our model achieves
state-of-the-art performance on the collaborative building task with a
substantial improvement. We also define two new tasks, the learning to ask task
and the joint learning task. The latter consists of solving both collaborating
building and learning to ask tasks jointly.
- Abstract(参考訳): 共同作業は、共同目標を達成するためにコミュニケーションの形式を必要とするユビキタスな活動である。
協調的なビルディングはそのようなタスクの1つです。
エージェントに話しかけるだけで、ユーザが望むものを作ることができる、シミュレーションされたビルディング環境(Minecraft)にインテリジェントなビルダーエージェントを開発したいと思っています。
この目標を達成するには、さらなる情報が必要になったとき、明確化を問うことでイニシアチブを取らなければならない。
Minecraft Corpus Datasetの既存の作業は、明確化を求めることの重要性を無視して命令を実行することしか学ばない。
本稿では,すべてのビルダー発話を説明質問を含む8つのタイプにアノテートすることにより,マインクラフトコーパスデータセットを拡張し,いつ命令を実行すべきかを判断できる新しいビルダーエージェントモデルを提案する。
実験結果から,本モデルが協調作業における最先端性能を実現し,大幅な改善が得られた。
また,質問課題の学習と共同学習タスクという2つの新しいタスクを定義した。
後者は、協調的なビルディングと学習の両方を解決し、共同でタスクを問う。
関連論文リスト
- Leverage Task Context for Object Affordance Ranking [57.59106517732223]
25の共通タスク、50k以上の画像、661k以上のオブジェクトからなる、最初の大規模タスク指向のアベイランスランキングデータセットを構築しました。
その結果,タスクコンテキストに基づくアベイランス学習のパラダイムの実現可能性と,サリエンシランキングやマルチモーダルオブジェクト検出の分野における最先端モデルよりも,我々のモデルの方が優れていることが示された。
論文 参考訳(メタデータ) (2024-11-25T04:22:33Z) - A Survey on Complex Tasks for Goal-Directed Interactive Agents [60.53915548970061]
この調査は、目標指向の対話エージェントを評価するための、関連するタスクと環境をコンパイルする。
関連リソースの最新のコンパイルは、プロジェクトのWebサイトにある。
論文 参考訳(メタデータ) (2024-09-27T08:17:53Z) - OAKINK2: A Dataset of Bimanual Hands-Object Manipulation in Complex Task Completion [39.14950571922401]
OAKINK2は、複雑な日常活動のための双方向オブジェクト操作タスクのデータセットである。
操作タスクを整理する3つのレベルの抽象化が導入されている。
OakINK2データセットは、人体、手、さまざまな相互作用するオブジェクトに対して、マルチビューの画像ストリームと正確なポーズアノテーションを提供する。
論文 参考訳(メタデータ) (2024-03-28T13:47:19Z) - When and What to Ask Through World States and Text Instructions: IGLU
NLP Challenge Solution [6.36729066736314]
協調作業においては、効果的なコミュニケーションが共同目標達成に不可欠である。
我々は対話を通してユーザ入力に基づく構造を構築するインテリジェントなビルダーエージェントの開発を目指している。
論文 参考訳(メタデータ) (2023-05-09T20:23:17Z) - Learning by Asking for Embodied Visual Navigation and Task Completion [20.0182240268864]
本稿では,タスク完了のための追加情報を動的に取得するために,いつ,どの質問をするかを学習するELBA(Embodied Learning-By-Asking)モデルを提案する。
実験結果から,ELBAは質問応答能力のないベースラインモデルに比べ,タスク性能の向上を図っている。
論文 参考訳(メタデータ) (2023-02-09T18:59:41Z) - Language-guided Task Adaptation for Imitation Learning [40.1007184209417]
本稿では,自然言語でコミュニケーションするタスク間の差異を指標として,関連するタスクのデモンストレーションからタスクを学習する,新たな設定を提案する。
提案した設定では、低労力の言語記述を提供することで、他のタスクからのデモを再利用することができ、エージェントエラーの修正にフィードバックを提供することもできる。
論文 参考訳(メタデータ) (2023-01-24T00:56:43Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - KETOD: Knowledge-Enriched Task-Oriented Dialogue [77.59814785157877]
対話システム研究における既存の研究は、主にタスク指向の対話とチャットを独立したドメインとして扱う。
本研究では,タスク指向対話と知識ベースチップチャットを一つのモデルに効果的に統合する方法について検討する。
論文 参考訳(メタデータ) (2022-05-11T16:01:03Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z) - Learning to Guide and to Be Guided in the Architect-Builder Problem [0.0]
私たちは、アクションを実行するがタスクのゴールを無視する$builder$をコーディネートすることを学ぶインタラクティブエージェントに興味があります。
アーキテクト・ビルダー問題に対する解決策として、アーキテクト・ビルダー反復誘導(ABIG)を提案する。
ABIGは、アーキテクトとビルダーのペアが手元にあるタスクを解決できるように、低レベルで高周波な誘導通信プロトコルを提供する。
論文 参考訳(メタデータ) (2021-12-14T12:57:27Z) - CausalWorld: A Robotic Manipulation Benchmark for Causal Structure and
Transfer Learning [138.40338621974954]
CausalWorldは、ロボット操作環境における因果構造と伝達学習のベンチマークである。
タスクは、ブロックのセットから3D形状を構築することで構成される。
論文 参考訳(メタデータ) (2020-10-08T23:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。