論文の概要: Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation
- arxiv url: http://arxiv.org/abs/2403.18230v1
- Date: Wed, 27 Mar 2024 03:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:26:17.632021
- Title: Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation
- Title(参考訳): 推論のためのコンサルタントを必要とする大規模言語モデル:行動シミュレーションによる複雑な人間のシステムにおけるエキスパートになる
- Authors: Chuwen Wang, Shirong Zeng, Cheng Wang,
- Abstract要約: 大規模言語モデル(LLM)は、数学、法学、コーディング、常識、世界知識といった分野において、人間に匹敵する優れた能力を示してきた。
本稿では,生成エージェントによるシミュレーション技術を活用した新たな推論フレームワークであるMosaic Expert Observation Wall' (MEOW)を提案する。
- 参考スコア(独自算出の注目度): 5.730580726163518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs), in conjunction with various reasoning reinforcement methodologies, have demonstrated remarkable capabilities comparable to humans in fields such as mathematics, law, coding, common sense, and world knowledge. In this paper, we delve into the reasoning abilities of LLMs within complex human systems. We propose a novel reasoning framework, termed ``Mosaic Expert Observation Wall'' (MEOW) exploiting generative-agents-based simulation technique. In the MEOW framework, simulated data are utilized to train an expert model concentrating ``experience'' about a specific task in each independent time of simulation. It is the accumulated ``experience'' through the simulation that makes for an expert on a task in a complex human system. We conduct the experiments within a communication game that mirrors real-world security scenarios. The results indicate that our proposed methodology can cooperate with existing methodologies to enhance the reasoning abilities of LLMs in complex human systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な推論強化手法とともに、数学、法学、コーディング、常識、世界知識といった分野において人間に匹敵する優れた能力を示した。
本稿では,複雑な人体システムにおけるLCMの推論能力について検討する。
本稿では,「モザイク専門家観察壁(MEOW)」と呼ばれる新たな推論手法を提案する。
MEOWフレームワークでは、シミュレーションの各独立した時間における特定のタスクについて ``experience'' を集中したエキスパートモデルをトレーニングするために、シミュレーションデータを利用する。
複雑な人間のシステムにおけるタスクのエキスパートになるシミュレーションを通じて蓄積された「経験」である。
実世界のセキュリティシナリオを反映したコミュニケーションゲームで実験を行う。
提案手法は, 複雑な人体システムにおけるLCMの推論能力を高めるために, 既存の方法論と協調できることを示す。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - LLM-Augmented Agent-Based Modelling for Social Simulations: Challenges and Opportunities [0.0]
大きな言語モデルとエージェントベースのシミュレーションを統合することは、複雑な社会システムを理解するための変換可能性を提供する。
LLM強化社会シミュレーションを体系的に開発するためのアーキテクチャと手法について検討する。
LLMとエージェントベースのシミュレーションを統合することは、研究者や科学者に強力なツールセットを提供すると結論付けている。
論文 参考訳(メタデータ) (2024-05-08T08:57:54Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Smart Agent-Based Modeling: On the Use of Large Language Models in
Computer Simulations [19.84766478633828]
エージェントベースモデリング(ABM)は、複雑なシステムダイナミクスをエミュレートするために個々のエージェントの相互作用を利用する。
本稿では,GPT のような大規模言語モデル (LLM) を ABM に組み込むことにより,これらの境界を超越する手法を提案する。
このアマルガメーションは、新しいフレームワーク、スマートエージェントベースモデリング(SABM)を生み出す。
論文 参考訳(メタデータ) (2023-11-10T18:54:33Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Exploring the Intersection of Large Language Models and Agent-Based
Modeling via Prompt Engineering [0.0]
大きな言語モデル(LLM)がこのボトルネックの潜在的な解決策として現れている。
本稿では,人間行動の予測可能なプロキシのシミュレーションを2つ提示する。
論文 参考訳(メタデータ) (2023-08-14T18:58:00Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Simulation Intelligence: Towards a New Generation of Scientific Methods [81.75565391122751]
シミュレーション知能の9つのモチーフ」は、科学計算、科学シミュレーション、人工知能の融合に必要な重要なアルゴリズムの開発と統合のためのロードマップである。
シミュレーションインテリジェンスのモチーフは、オペレーティングシステムのレイヤ内のコンポーネントとよく似ています。
我々は、モチーフ間の協調的な努力が科学的な発見を加速する大きな機会をもたらすと信じている。
論文 参考訳(メタデータ) (2021-12-06T18:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。