論文の概要: Commander's Intent: A Dataset and Modeling Approach for Human-AI Task
Specification in Strategic Play
- arxiv url: http://arxiv.org/abs/2208.08374v1
- Date: Wed, 17 Aug 2022 16:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:10:21.673302
- Title: Commander's Intent: A Dataset and Modeling Approach for Human-AI Task
Specification in Strategic Play
- Title(参考訳): Commander's Intent: 戦略的プレイにおけるヒューマンAIタスク仕様のためのデータセットとモデリングアプローチ
- Authors: Pradyumna Tambwekar, Nathan Vaska, Lakshita Dodeja, Matthew Gombolay
- Abstract要約: 効果的なヒューマンチーム化には、チームの目標と、エージェントの運用に必要な制約を伝える能力が必要です。
本稿では,新たなデータセットと関連するデータ収集プロトコルを提案する。このプロトコルは,ボードゲームリスクのために,人間によって開発された特定の戦略に対応する言語目標をマッピングする。
我々の機械学習アーキテクチャは、同じ機械翻訳タスクを実行することを担当する人間よりも、非構造化言語記述を戦略仕様に解釈する方がよいことを示す。
- 参考スコア(独自算出の注目度): 2.0454959820861727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective Human-AI teaming requires the ability to communicate the goals of
the team and constraints under which you need the agent to operate. Providing
the ability to specify the shared intent or operation criteria of the team can
enable an AI agent to perform its primary function while still being able to
cater to the specific desires of the current team. While significant work has
been conducted to instruct an agent to perform a task, via language or
demonstrations, prior work lacks a focus on building agents which can operate
within the parameters specified by a team. Worse yet, there is a dearth of
research pertaining to enabling humans to provide their specifications through
unstructured, naturalist language. In this paper, we propose the use of goals
and constraints as a scaffold to modulate and evaluate autonomous agents. We
contribute to this field by presenting a novel dataset, and an associated data
collection protocol, which maps language descriptions to goals and constraints
corresponding to specific strategies developed by human participants for the
board game Risk. Leveraging state-of-the-art language models and augmentation
procedures, we develop a machine learning framework which can be used to
identify goals and constraints from unstructured strategy descriptions. To
empirically validate our approach we conduct a human-subjects study to
establish a human-baseline for our dataset. Our results show that our machine
learning architecture is better able to interpret unstructured language
descriptions into strategy specifications than human raters tasked with
performing the same machine translation task (F(1,272.53) = 17.025, p < 0.001).
- Abstract(参考訳): 効果的なHuman-AIチームには、チームの目標と、エージェントの運用に必要な制約を伝える能力が必要です。
チームの共通の意図や運用基準を指定する能力を提供することで、aiエージェントは、現在のチームの特定の願望に対応しながら、プライマリ機能を実行することが可能になります。
エージェントに、言語やデモを通じてタスクを実行するように指示する作業は行われているが、以前の作業では、チームが指定したパラメータ内で操作できるエージェントの構築に重点を置いていない。
さらに悪いことに、人間が非構造的、自然主義的な言語を通じて仕様を提供することを可能にする研究の難しさがある。
本稿では,自律エージェントを調節・評価するための足場として,目標と制約の利用を提案する。
我々は,新たなデータセットとそれに関連するデータ収集プロトコルを提示することにより,ボードゲームリスクに対して,人間参加者が開発する特定の戦略に対応する目標と制約に言語記述をマッピングする。
最先端言語モデルと拡張手順を活用して,非構造化戦略記述から目標と制約を識別する機械学習フレームワークを開発した。
このアプローチを実証的に検証するために、データセットの人間ベースラインを確立するために、人間オブジェクトの研究を行います。
我々の機械学習アーキテクチャは、同じ機械翻訳タスク(F(1,272.53) = 17.025, p < 0.001)を遂行する人間よりも、非構造化言語記述を戦略仕様に解釈できる。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Learning adaptive planning representations with natural language
guidance [90.24449752926866]
本稿では,タスク固有の計画表現を自動構築するフレームワークであるAdaについて述べる。
Adaは、プランナー互換の高レベルアクション抽象化と、特定の計画タスク領域に適応した低レベルコントローラのライブラリを対話的に学習する。
論文 参考訳(メタデータ) (2023-12-13T23:35:31Z) - Language and Task Arithmetic with Parameter-Efficient Layers for Zero-Shot Summarization [126.96113831681338]
本稿では,言語やタスク特化パラメータを構成することで,ゼロショットの言語間移動を改善することを提案する。
本手法は,言語とタスクPEFTモジュールを要素演算により構成し,ラベルなしデータと英語ラベル付きデータを活用する。
論文 参考訳(メタデータ) (2023-11-15T20:04:58Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Language-Conditioned Imitation Learning with Base Skill Priors under Unstructured Data [26.004807291215258]
言語条件付きロボット操作は、複雑なタスクを理解し実行することができるロボットを開発することを目的としている。
基本スキルの事前知識と非構造化データに基づく模倣学習を組み合わせた汎用的言語条件付き手法を提案する。
ゼロショット設定を用いてシミュレーション環境と実環境の両方におけるモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-05-30T14:40:38Z) - Grounding Language with Visual Affordances over Unstructured Data [26.92329260907805]
本研究では,非構造化,オフライン,リセットのないデータから,言語条件のロボットスキルを効率的に学習するための新しい手法を提案する。
我々は、言語による全データの1%しか必要としない自己教師型ビジュオ言語割当モデルを利用する。
提案手法は,従来の手法よりも桁違いに少ないデータで,リアルタイムに長時間の多層タスクを完了できることがわかった。
論文 参考訳(メタデータ) (2022-10-04T21:16:48Z) - OCHADAI at SemEval-2022 Task 2: Adversarial Training for Multilingual
Idiomaticity Detection [4.111899441919165]
文が慣用的表現を含むか否かを判定する多言語逆行訓練モデルを提案する。
我々のモデルは、異なる多言語変換言語モデルからの事前学習された文脈表現に依存している。
論文 参考訳(メタデータ) (2022-06-07T05:52:43Z) - GoalNet: Inferring Conjunctive Goal Predicates from Human Plan
Demonstrations for Robot Instruction Following [15.405156791794191]
私たちのゴールは、自然言語命令として指定されたタスクを実行するために、ロボットがアクションのシーケンスを学習できるようにすることです。
目的予測の文脈的およびタスク依存的推論のための新しいニューロシンボリックモデルであるGoalNetを導入する。
GoalNetは、最先端のルールベースのアプローチと比較してタスク完了率を大幅に改善した(51%)。
論文 参考訳(メタデータ) (2022-05-14T15:14:40Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。