論文の概要: Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation
- arxiv url: http://arxiv.org/abs/2403.18230v1
- Date: Wed, 27 Mar 2024 03:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 18:26:17.632021
- Title: Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation
- Title(参考訳): 推論のためのコンサルタントを必要とする大規模言語モデル:行動シミュレーションによる複雑な人間のシステムにおけるエキスパートになる
- Authors: Chuwen Wang, Shirong Zeng, Cheng Wang,
- Abstract要約: 大規模言語モデル(LLM)は、数学、法学、コーディング、常識、世界知識といった分野において、人間に匹敵する優れた能力を示してきた。
本稿では,生成エージェントによるシミュレーション技術を活用した新たな推論フレームワークであるMosaic Expert Observation Wall' (MEOW)を提案する。
- 参考スコア(独自算出の注目度): 5.730580726163518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs), in conjunction with various reasoning reinforcement methodologies, have demonstrated remarkable capabilities comparable to humans in fields such as mathematics, law, coding, common sense, and world knowledge. In this paper, we delve into the reasoning abilities of LLMs within complex human systems. We propose a novel reasoning framework, termed ``Mosaic Expert Observation Wall'' (MEOW) exploiting generative-agents-based simulation technique. In the MEOW framework, simulated data are utilized to train an expert model concentrating ``experience'' about a specific task in each independent time of simulation. It is the accumulated ``experience'' through the simulation that makes for an expert on a task in a complex human system. We conduct the experiments within a communication game that mirrors real-world security scenarios. The results indicate that our proposed methodology can cooperate with existing methodologies to enhance the reasoning abilities of LLMs in complex human systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な推論強化手法とともに、数学、法学、コーディング、常識、世界知識といった分野において人間に匹敵する優れた能力を示した。
本稿では,複雑な人体システムにおけるLCMの推論能力について検討する。
本稿では,「モザイク専門家観察壁(MEOW)」と呼ばれる新たな推論手法を提案する。
MEOWフレームワークでは、シミュレーションの各独立した時間における特定のタスクについて ``experience'' を集中したエキスパートモデルをトレーニングするために、シミュレーションデータを利用する。
複雑な人間のシステムにおけるタスクのエキスパートになるシミュレーションを通じて蓄積された「経験」である。
実世界のセキュリティシナリオを反映したコミュニケーションゲームで実験を行う。
提案手法は, 複雑な人体システムにおけるLCMの推論能力を高めるために, 既存の方法論と協調できることを示す。
関連論文リスト
- Human Simulacra: A Step toward the Personification of Large Language Models [18.32758451616534]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Smart Agent-Based Modeling: On the Use of Large Language Models in
Computer Simulations [19.84766478633828]
エージェントベースモデリング(ABM)は、複雑なシステムダイナミクスをエミュレートするために個々のエージェントの相互作用を利用する。
本稿では,GPT のような大規模言語モデル (LLM) を ABM に組み込むことにより,これらの境界を超越する手法を提案する。
このアマルガメーションは、新しいフレームワーク、スマートエージェントベースモデリング(SABM)を生み出す。
論文 参考訳(メタデータ) (2023-11-10T18:54:33Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Exploring the Intersection of Large Language Models and Agent-Based
Modeling via Prompt Engineering [0.0]
大きな言語モデル(LLM)がこのボトルネックの潜在的な解決策として現れている。
本稿では,人間行動の予測可能なプロキシのシミュレーションを2つ提示する。
論文 参考訳(メタデータ) (2023-08-14T18:58:00Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Simulation Intelligence: Towards a New Generation of Scientific Methods [81.75565391122751]
シミュレーション知能の9つのモチーフ」は、科学計算、科学シミュレーション、人工知能の融合に必要な重要なアルゴリズムの開発と統合のためのロードマップである。
シミュレーションインテリジェンスのモチーフは、オペレーティングシステムのレイヤ内のコンポーネントとよく似ています。
我々は、モチーフ間の協調的な努力が科学的な発見を加速する大きな機会をもたらすと信じている。
論文 参考訳(メタデータ) (2021-12-06T18:45:31Z) - Decomposed Inductive Procedure Learning [2.421459418045937]
我々は、分解帰納的手続き学習(DIPL)の理論を定式化する。
DIPLは、教育的に関係のあるタスクを学習するエージェントを構築するために、様々な形の帰納的シンボリックラーニングがどのように使用できるかを概説している。
人間の学習能力を示すエージェントをDIPLで作成できることを実証する。
論文 参考訳(メタデータ) (2021-10-25T19:36:03Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。