論文の概要: Computational Experiments Meet Large Language Model Based Agents: A
Survey and Perspective
- arxiv url: http://arxiv.org/abs/2402.00262v1
- Date: Thu, 1 Feb 2024 01:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:03:11.125960
- Title: Computational Experiments Meet Large Language Model Based Agents: A
Survey and Perspective
- Title(参考訳): 大規模言語モデルに基づくエージェントを満たした計算実験:調査と展望
- Authors: Qun Ma, Xiao Xue, Deyu Zhou, Xiangning Yu, Donghua Liu, Xuwen Zhang,
Zihan Zhao, Yifan Shen, Peilin Ji, Juanjuan Li, Gang Wang, Wanpeng Ma
- Abstract要約: 計算実験は複雑なシステムを研究するための貴重な方法として登場した。
エージェントベースモデリング(ABM)における実際の社会システムを正確に表現することは、人間の多様性と複雑な特性のために困難である。
大規模言語モデル(LLM)の統合が提案され、エージェントが人為的な能力を持つことができる。
- 参考スコア(独自算出の注目度): 16.08517740276261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational experiments have emerged as a valuable method for studying
complex systems, involving the algorithmization of counterfactuals. However,
accurately representing real social systems in Agent-based Modeling (ABM) is
challenging due to the diverse and intricate characteristics of humans,
including bounded rationality and heterogeneity. To address this limitation,
the integration of Large Language Models (LLMs) has been proposed, enabling
agents to possess anthropomorphic abilities such as complex reasoning and
autonomous learning. These agents, known as LLM-based Agent, offer the
potential to enhance the anthropomorphism lacking in ABM. Nonetheless, the
absence of explicit explainability in LLMs significantly hinders their
application in the social sciences. Conversely, computational experiments excel
in providing causal analysis of individual behaviors and complex phenomena.
Thus, combining computational experiments with LLM-based Agent holds
substantial research potential. This paper aims to present a comprehensive
exploration of this fusion. Primarily, it outlines the historical development
of agent structures and their evolution into artificial societies, emphasizing
their importance in computational experiments. Then it elucidates the
advantages that computational experiments and LLM-based Agents offer each
other, considering the perspectives of LLM-based Agent for computational
experiments and vice versa. Finally, this paper addresses the challenges and
future trends in this research domain, offering guidance for subsequent related
studies.
- Abstract(参考訳): 計算実験は、反事実のアルゴリズム化を含む複雑なシステムを研究する貴重な方法として登場した。
しかし,エージェント・ベース・モデリング(abm)における実社会システムを正確に表現することは,有界合理性や不均一性など,多様で複雑な特徴から困難である。
この制限に対処するために、エージェントが複雑な推論や自律学習などの人為的能力を持つことを可能にするLarge Language Models(LLMs)の統合が提案されている。
LLMを基盤とするエージェントとして知られるこれらのエージェントは、ABMに欠けているヒト型を増強する可能性がある。
にもかかわらず、LSMの明示的な説明可能性の欠如は、社会科学への応用を著しく妨げている。
逆に、計算実験は個々の行動や複雑な現象の因果分析に優れている。
したがって、計算実験をLLMベースのエージェントと組み合わせることで、かなりの研究の可能性を秘めている。
本稿では,この融合の包括的探索について述べる。
主に、エージェント構造の歴史的発展とその人工社会への進化を概説し、計算実験におけるその重要性を強調している。
そして,計算実験におけるllmベースのエージェントの視点やその逆を考慮し,計算実験とllmベースのエージェントが相互に提供する利点を明らかにする。
最後に,本研究領域における課題と今後の動向について考察し,今後の研究の指針を提供する。
関連論文リスト
- Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - LLM-Augmented Agent-Based Modelling for Social Simulations: Challenges and Opportunities [0.0]
大きな言語モデルとエージェントベースのシミュレーションを統合することは、複雑な社会システムを理解するための変換可能性を提供する。
LLM強化社会シミュレーションを体系的に開発するためのアーキテクチャと手法について検討する。
LLMとエージェントベースのシミュレーションを統合することは、研究者や科学者に強力なツールセットを提供すると結論付けている。
論文 参考訳(メタデータ) (2024-05-08T08:57:54Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Do LLM Agents Exhibit Social Behavior? [6.018288992619851]
本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - A Survey on Large Language Model based Autonomous Agents [105.2509166861984]
大規模言語モデル(LLM)は、人間レベルの知性を達成する上で、顕著な可能性を示している。
本稿では,LLMに基づく自律エージェントの分野を総合的な観点から体系的に検討する。
本稿では、社会科学、自然科学、工学の分野におけるLLMベースの自律エージェントの多様な応用について概観する。
論文 参考訳(メタデータ) (2023-08-22T13:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。