論文の概要: Richelieu: Self-Evolving LLM-Based Agents for AI Diplomacy
- arxiv url: http://arxiv.org/abs/2407.06813v1
- Date: Tue, 9 Jul 2024 12:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 18:07:16.737733
- Title: Richelieu: Self-Evolving LLM-Based Agents for AI Diplomacy
- Title(参考訳): Richelieu: AI外交のための自己進化型LLMベースのエージェント
- Authors: Zhenyu Guan, Xiangyu Kong, Fangwei Zhong, Yizhou Wang,
- Abstract要約: 外交は、特に必要な交渉段階を考慮して、決定空間の停滞を伴う。
従来のAIエージェントは、複数のエージェントを含むタスクにおいて、多段階ゲームやより大きなアクションスペースを扱う能力を確実に証明している。
我々は、3つのコアと不可欠な機能を組み合わさり、LSMベースのより強力な社会エージェントに組み込むことで、高度に包括的なマルチエージェントミッションのために、AIの上限を人間のようなエージェントに向ける第一歩を踏み出します。
- 参考スコア(独自算出の注目度): 24.521882655442187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diplomacy is one of the most sophisticated activities in human society. The complex interactions among multiple parties/ agents involve various abilities like social reasoning, negotiation arts, and long-term strategy planning. Previous AI agents surely have proved their capability of handling multi-step games and larger action spaces on tasks involving multiple agents. However, diplomacy involves a staggering magnitude of decision spaces, especially considering the negotiation stage required. Recently, LLM agents have shown their potential for extending the boundary of previous agents on a couple of applications, however, it is still not enough to handle a very long planning period in a complex multi-agent environment. Empowered with cutting-edge LLM technology, we make the first stab to explore AI's upper bound towards a human-like agent for such a highly comprehensive multi-agent mission by combining three core and essential capabilities for stronger LLM-based societal agents: 1) strategic planner with memory and reflection; 2) goal-oriented negotiate with social reasoning; 3) augmenting memory by self-play games to self-evolving without any human in the loop.
- Abstract(参考訳): 外交は人間社会における最も洗練された活動の1つである。
複数の当事者やエージェント間の複雑な相互作用には、社会的推論、交渉術、長期戦略計画など様々な能力が含まれる。
従来のAIエージェントは、複数のエージェントを含むタスクにおいて、多段階ゲームやより大きなアクションスペースを扱う能力を確実に証明している。
しかし外交は、特に必要な交渉段階を考慮して、決定空間の停滞を伴う。
近年, LLMエージェントは, 複雑なマルチエージェント環境において, 従来のエージェントの境界を拡張できる可能性を示しているが, 複雑なマルチエージェント環境において, 非常に長い計画期間を扱うには不十分である。
最先端のLLM技術を活用して、我々は、より強力なLLMベースの社会エージェントに3つのコアと必須の機能を組み合わせることで、高度に包括的なマルチエージェントミッションのために、AIの上限を人間のようなエージェントに向けて探索する第一歩を踏み出します。
1) 記憶とリフレクションを有する戦略的プランナー
2 社会的理由づけによる目標志向の交渉
3) 自己プレイゲームによって記憶を増強し, ループ内の人間を介さずに自己進化する。
関連論文リスト
- AgentSense: Benchmarking Social Intelligence of Language Agents through Interactive Scenarios [38.878966229688054]
本稿では,対話型シナリオを通して言語エージェントのソーシャルインテリジェンスをベンチマークするAgensSenseを紹介する。
ドラマティック理論に基づいて、エージェントセンスは、広範なスクリプトから構築された1,225の多様な社会的シナリオを作成するためにボトムアップアプローチを採用している。
我々はERG理論を用いて目標を分析し、包括的な実験を行う。
以上の結果から,LPMは複雑な社会シナリオ,特に高レベルの成長ニーズにおいて,目標達成に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-25T07:04:16Z) - LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Agent-Pro: Learning to Evolve via Policy-Level Reflection and Optimization [53.510942601223626]
大規模言語モデル(LLM)は多様なタスクに対して堅牢な問題解決能力を示す。
これらのタスクソルバは、タスクルールを通知し、行動を調整するために手作業によるプロンプトを必要とする。
本稿では,ポリシーレベルのリフレクションと最適化を備えた LLM ベースのエージェントである Agent-Pro を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:09:20Z) - LLM-Powered Hierarchical Language Agent for Real-time Human-AI
Coordination [28.22553394518179]
人-AI協調のための階層型言語エージェント(HLA)を提案する。
HLAは、リアルタイム実行を維持しながら、強力な推論能力を提供する。
人間の研究では、HLAは他のベースラインエージェントより優れており、スローミンドのみのエージェントやファストミンドのみのエージェントがある。
論文 参考訳(メタデータ) (2023-12-23T11:09:48Z) - Multi-Agent Consensus Seeking via Large Language Models [6.922356864800498]
大規模言語モデル(LLM)によって駆動されるマルチエージェントシステムは、複雑なタスクを協調的に解決する有望な能力を示している。
この研究は、マルチエージェントコラボレーションにおける根本的な問題であるコンセンサス探索について考察する。
論文 参考訳(メタデータ) (2023-10-31T03:37:11Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。