論文の概要: Hybrid Voting-Based Task Assignment in Role-Playing Games
- arxiv url: http://arxiv.org/abs/2502.18690v1
- Date: Tue, 25 Feb 2025 22:58:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:48.755059
- Title: Hybrid Voting-Based Task Assignment in Role-Playing Games
- Title(参考訳): ロールプレイングゲームにおけるハイブリッド投票型タスクアサインメント
- Authors: Daniel Weiner, Raj Korpan,
- Abstract要約: 投票ベースのタスク割り当て(VBTA)は、タスク割り当てと完了における人間の推論にインスパイアされたフレームワークである。
VBTAは、各タスクに最も適したエージェントを効率よく識別し割り当てる。
我々の手法は、独自の戦闘遭遇と物語を創出する際の約束を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In role-playing games (RPGs), the level of immersion is critical-especially when an in-game agent conveys tasks, hints, or ideas to the player. For an agent to accurately interpret the player's emotional state and contextual nuances, a foundational level of understanding is required, which can be achieved using a Large Language Model (LLM). Maintaining the LLM's focus across multiple context changes, however, necessitates a more robust approach, such as integrating the LLM with a dedicated task allocation model to guide its performance throughout gameplay. In response to this need, we introduce Voting-Based Task Assignment (VBTA), a framework inspired by human reasoning in task allocation and completion. VBTA assigns capability profiles to agents and task descriptions to tasks, then generates a suitability matrix that quantifies the alignment between an agent's abilities and a task's requirements. Leveraging six distinct voting methods, a pre-trained LLM, and integrating conflict-based search (CBS) for path planning, VBTA efficiently identifies and assigns the most suitable agent to each task. While existing approaches focus on generating individual aspects of gameplay, such as single quests, or combat encounters, our method shows promise when generating both unique combat encounters and narratives because of its generalizable nature.
- Abstract(参考訳): ロールプレイングゲーム(RPG)では、特にゲーム内のエージェントがタスク、ヒント、アイデアをプレイヤーに伝える場合、没入レベルが重要となる。
エージェントがプレイヤーの感情状態と文脈的ニュアンスを正確に解釈するには、Large Language Model(LLM)を用いて実現可能な基本的な理解レベルが必要である。
しかし、複数のコンテキストにまたがってLLMの焦点を維持するためには、より堅牢なアプローチが必要であり、例えばゲームプレイ全体を通してそのパフォーマンスを導くために、LLMを専用のタスク割り当てモデルに統合するなどである。
このニーズに応えて、タスク割り当てと完了における人間の推論にインスパイアされたVBTA(Voting-Based Task Assignment)を導入する。
VBTAはタスクにエージェントとタスク記述に機能プロファイルを割り当て、エージェントの能力とタスクの要求との整合性を定量化する適合性行列を生成する。
6つの異なる投票方法、事前訓練されたLLM、および経路計画のためのコンフリクトベース検索(CBS)を統合することで、VBTAは各タスクに最も適したエージェントを効率的に識別し割り当てる。
既存のアプローチでは、単一のクエストや戦闘遭遇など、ゲームプレイの個々の側面を生成することに重点を置いているが、本手法は、その一般化可能な性質から、独自の戦闘遭遇と物語の両方を生成する際に、約束を示す。
関連論文リスト
- Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - VLABench: A Large-Scale Benchmark for Language-Conditioned Robotics Manipulation with Long-Horizon Reasoning Tasks [100.3234156027118]
本稿では、ユニバーサルLCMタスク学習を評価するためのオープンソースのベンチマークであるVLABenchを紹介する。
VLABenchは、タスクのカテゴリごとに強いランダム化と合計2000以上のオブジェクトを備えた、慎重に設計された100のタスクカテゴリを提供する。
このベンチマークは、メッシュとテクスチャ、空間関係、意味的命令、物理法則、知識伝達、推論の理解を含む複数の能力を評価する。
論文 参考訳(メタデータ) (2024-12-24T06:03:42Z) - GameVLM: A Decision-making Framework for Robotic Task Planning Based on Visual Language Models and Zero-sum Games [7.5757016008687454]
本稿では,ロボット作業計画における意思決定プロセスを強化するためのマルチエージェントフレームワークであるGameVLMを提案する。
VLMに基づく意思決定とエキスパートエージェントがタスク計画を行うために提示され、具体的にはタスク計画に決定エージェントが使用され、専門家エージェントがこれらのタスク計画を評価するために使用される。
論文 参考訳(メタデータ) (2024-05-22T15:37:28Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z) - Interaction is all You Need? A Study of Robots Ability to Understand and
Execute [0.5439020425819]
我々は,コヒーレントダイアログにおける複雑な命令を理解し,実行することができるロボットを装備する。
私たちは、最高の構成が、成功率スコア8.85でベースラインを上回っているのを観察します。
我々は、EDHタスクを拡張し、個々のアクションではなく、ゲームプランに関する予測を行うことで、新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-11-13T08:39:06Z) - Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis [4.055489363682198]
大規模言語モデル(LLM)は、タスク学習の知識源として大きな可能性を秘めている。
プロンプト工学は、LLMから知識を引き出すのに有効であることが示されているが、同時に、新しいタスクを具現化したエージェント学習のための、適切な、状況に根ざした知識を得るには不十分である。
本稿では,認知エージェントアプローチであるSTARSについて述べる。これは,迅速なエンジニアリングを拡張し,その制限を緩和し,エージェントがネイティブ言語能力,具体化,環境,ユーザ嗜好に適合する新たなタスク知識を取得できるようにする。
論文 参考訳(メタデータ) (2023-06-11T20:50:14Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Zero-shot Task Adaptation using Natural Language [43.807555235240365]
本稿では,エージェントにデモンストレーションと説明の両方を付与する,新しい環境を提案する。
テンプレートベースの記述を使用すれば,目標タスクの95%以上を達成できる。
論文 参考訳(メタデータ) (2021-06-05T21:39:04Z) - Task-specific Objectives of Pre-trained Language Models for Dialogue
Adaptation [79.0866650271659]
PrLMを利用する一般的なプロセスは、まずタスク非依存のLMトレーニング目標を持つ大規模汎用コーパス上で事前トレーニングを行い、タスク固有のトレーニング目標を持つタスクデータセットを微調整する。
タスク固有の目的を持つドメイン内タスク関連コーパスにタスク固有の事前学習を導入する。
この手順は、特定のタスクのモデル理解能力を高めるために、元の2つのステージの間に置かれる。
論文 参考訳(メタデータ) (2020-09-10T16:46:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。