論文の概要: LLM-Powered Hierarchical Language Agent for Real-time Human-AI
Coordination
- arxiv url: http://arxiv.org/abs/2312.15224v2
- Date: Tue, 9 Jan 2024 06:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 19:12:41.596565
- Title: LLM-Powered Hierarchical Language Agent for Real-time Human-AI
Coordination
- Title(参考訳): LLMを用いたリアルタイムAI協調のための階層型言語エージェント
- Authors: Jijia Liu, Chao Yu, Jiaxuan Gao, Yuqing Xie, Qingmin Liao, Yi Wu, Yu
Wang
- Abstract要約: 人-AI協調のための階層型言語エージェント(HLA)を提案する。
HLAは、リアルタイム実行を維持しながら、強力な推論能力を提供する。
人間の研究では、HLAは他のベースラインエージェントより優れており、スローミンドのみのエージェントやファストミンドのみのエージェントがある。
- 参考スコア(独自算出の注目度): 28.22553394518179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents powered by Large Language Models (LLMs) have made significant
advances, enabling them to assist humans in diverse complex tasks and leading
to a revolution in human-AI coordination. LLM-powered agents typically require
invoking LLM APIs and employing artificially designed complex prompts, which
results in high inference latency. While this paradigm works well in scenarios
with minimal interactive demands, such as code generation, it is unsuitable for
highly interactive and real-time applications, such as gaming. Traditional
gaming AI often employs small models or reactive policies, enabling fast
inference but offering limited task completion and interaction abilities. In
this work, we consider Overcooked as our testbed where players could
communicate with natural language and cooperate to serve orders. We propose a
Hierarchical Language Agent (HLA) for human-AI coordination that provides both
strong reasoning abilities while keeping real-time execution. In particular,
HLA adopts a hierarchical framework and comprises three modules: a proficient
LLM, referred to as Slow Mind, for intention reasoning and language
interaction, a lightweight LLM, referred to as Fast Mind, for generating macro
actions, and a reactive policy, referred to as Executor, for transforming macro
actions into atomic actions. Human studies show that HLA outperforms other
baseline agents, including slow-mind-only agents and fast-mind-only agents,
with stronger cooperation abilities, faster responses, and more consistent
language communications.
- Abstract(参考訳): LLM(Large Language Models)を利用したAIエージェントは、さまざまな複雑なタスクで人間を支援することを可能にし、人間とAIの協調に革命をもたらす。
LLMを利用するエージェントは通常、LLM APIを呼び出し、人工的に設計された複雑なプロンプトを使用する必要がある。
このパラダイムは、コード生成のような最小限のインタラクティブ要求を伴うシナリオでうまく機能するが、ゲームのような高度にインタラクティブでリアルタイムなアプリケーションには適さない。
従来のゲームAIは、しばしば小さなモデルやリアクティブポリシーを採用し、高速な推論を可能にするが、タスクの完了とインタラクション能力に制限がある。
本研究では,プレイヤーが自然言語とコミュニケーションし,注文に協力できるテストベッドとして,オーバークックドを考察する。
本稿では,人間とAIの協調のための階層型言語エージェント(HLA)を提案する。
特に、HLAは階層的なフレームワークを採用し、3つのモジュールで構成されている: 意図的推論と言語相互作用のための熟練したLLM、マクロアクションを生成するためのFast Mindと呼ばれる軽量なLLM、マクロアクションをアトミックアクションに変換するためのExecutorと呼ばれるリアクティブポリシー。
人間の研究では、HLAは他のベースラインエージェントよりも優れており、スローミンドのみのエージェントやファストミンドのみのエージェント、より強力な協調能力、より速い応答、より一貫性のある言語コミュニケーションがある。
関連論文リスト
- Agent-Pro: Learning to Evolve via Policy-Level Reflection and
Optimization [55.29142200038241]
Agent-Proはポリシーレベルのリフレクションと最適化を備えたLLMベースのエージェントである。
過去の軌道と信念を反復的に反映し、より良い政策のために不合理な信念を微調整する。
Agent-Proは、BlackjackとTexas Hold'emの2つのゲームで評価され、バニラLLMと特殊モデルを上回っている。
論文 参考訳(メタデータ) (2024-02-27T15:09:20Z) - Enforcing Temporal Constraints on Generative Agent Behavior with
Reactive Synthesis [1.1110995501996483]
生成エージェントを生成するために,形式論理に基づくプログラム合成と大規模言語モデルの組み合わせを提案する。
提案手法ではテンポラルストリーム論理(TSL)を用いてエージェントに時間的構造を強制するオートマトンを生成する。
我々は、様々なアプリケーションドメインに特化した協調型対話型エージェントの作成に関わる様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-02-24T21:36:26Z) - AgentLite: A Lightweight Library for Building and Advancing
Task-Oriented LLM Agent System [91.41155892086252]
LLMエージェントの研究を簡略化する新しいAIエージェントライブラリであるAgentLiteをオープンソースとして公開する。
AgentLiteは、タスクを分解するエージェントの機能を強化するために設計されたタスク指向フレームワークである。
我々は,その利便性と柔軟性を示すために,AgentLiteで開発された実用アプリケーションを紹介した。
論文 参考訳(メタデータ) (2024-02-23T06:25:20Z) - LLMind: Orchestrating AI and IoT with LLM for Complex Task Execution [20.186752447895994]
複雑なタスクを実行するためのIoTデバイス間で効果的なコラボレーションを可能にするAIエージェントフレームワークであるLLMindを提案する。
脳の機能的特殊化理論に触発されて、我々のフレームワークはLLMをドメイン固有のAIモジュールと統合し、その能力を高める。
論文 参考訳(メタデータ) (2023-12-14T14:57:58Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Multi-Agent Consensus Seeking via Large Language Models [6.922356864800498]
大規模言語モデル(LLM)によって駆動されるマルチエージェントシステムは、複雑なタスクを協調的に解決する有望な能力を示している。
この研究は、マルチエージェントコラボレーションにおける根本的な問題であるコンセンサス探索について考察する。
論文 参考訳(メタデータ) (2023-10-31T03:37:11Z) - MetaAgents: Simulating Interactions of Human Behaviors for LLM-based
Task-oriented Coordination via Collaborative Generative Agents [27.911816995891726]
我々は,一貫した行動パターンと課題解決能力を備えたLLMベースのエージェントを,協調的生成エージェントとして導入する。
本研究では,人間のような推論能力と専門的スキルを備えた協調生成エージェントを実現する新しい枠組みを提案する。
我々の研究は、タスク指向の社会シミュレーションにおける大規模言語モデルの役割と進化に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-10T10:17:58Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。