論文の概要: The Influence of Human-inspired Agentic Sophistication in LLM-driven Strategic Reasoners
- arxiv url: http://arxiv.org/abs/2505.09396v1
- Date: Wed, 14 May 2025 13:51:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.480803
- Title: The Influence of Human-inspired Agentic Sophistication in LLM-driven Strategic Reasoners
- Title(参考訳): LLM駆動型戦略共振器における人為的エージェント・ソフィケーションの効果
- Authors: Vince Trencsenyi, Agnieszka Mensfelt, Kostas Stathis,
- Abstract要約: 人工推論器の性能形成におけるエージェント的高度化の役割を評価する。
我々は3つのエージェント設計をベンチマークした: 単純なゲーム理論モデル、構造化されていないLLM-as-agentモデル、従来のエージェントフレームワークに統合されたLLM。
我々の分析は、25のエージェント構成にまたがる2000以上の推論サンプルを網羅し、人間にインスパイアされた認知構造が、LLMエージェントと人間の戦略的行動との整合性を高めることを示唆している。
- 参考スコア(独自算出の注目度): 3.5083201638203154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid rise of large language models (LLMs) has shifted artificial intelligence (AI) research toward agentic systems, motivating the use of weaker and more flexible notions of agency. However, this shift raises key questions about the extent to which LLM-based agents replicate human strategic reasoning, particularly in game-theoretic settings. In this context, we examine the role of agentic sophistication in shaping artificial reasoners' performance by evaluating three agent designs: a simple game-theoretic model, an unstructured LLM-as-agent model, and an LLM integrated into a traditional agentic framework. Using guessing games as a testbed, we benchmarked these agents against human participants across general reasoning patterns and individual role-based objectives. Furthermore, we introduced obfuscated game scenarios to assess agents' ability to generalise beyond training distributions. Our analysis, covering over 2000 reasoning samples across 25 agent configurations, shows that human-inspired cognitive structures can enhance LLM agents' alignment with human strategic behaviour. Still, the relationship between agentic design complexity and human-likeness is non-linear, highlighting a critical dependence on underlying LLM capabilities and suggesting limits to simple architectural augmentation.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な普及は、人工知能(AI)の研究をエージェントシステムへとシフトさせ、より弱く柔軟なエージェンシーの概念の使用を動機付けている。
しかし、このシフトは、LLMベースのエージェントが、特にゲーム理論の設定において、人間の戦略的推論を再現する程度について重要な疑問を提起する。
本稿では,3つのエージェント設計(ゲーム理論モデル,非構造化LLM-as-agentモデル,従来のエージェントフレームワークに統合されたLLM)を評価することにより,人工推論器の性能形成におけるエージェントの高度化の役割について検討する。
シミュレーションゲームをテストベッドとして使用し、一般的な推論パターンと個々の役割に基づく目的にまたがって、これらのエージェントを人間の参加者に対してベンチマークした。
さらに,エージェントが学習分布を超えて一般化できる能力を評価するために,難解なゲームシナリオを導入した。
我々の分析は、25のエージェント構成にまたがる2000以上の推論サンプルを網羅し、人間にインスパイアされた認知構造が、LLMエージェントと人間の戦略的行動との整合性を高めることを示唆している。
それでも、エージェント設計の複雑さと人間的類似性の関係は非直線的であり、基礎となるLCM機能への重要な依存を強調し、単純なアーキテクチャ拡張の限界を示唆している。
関連論文リスト
- ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [54.787341008881036]
Reinforced Meta-thinking Agents(ReMA)は,MARL(Multi-Agent Reinforcement Learning)を利用したメタ思考行動の抽出手法である。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
実験の結果、ReMAは複雑な推論タスクにおいて単一エージェントRLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。