論文の概要: Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning
- arxiv url: http://arxiv.org/abs/2402.02388v1
- Date: Sun, 4 Feb 2024 07:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 20:01:45.481661
- Title: Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning
- Title(参考訳): 検証支援型反復的インコンテキスト学習によるソリューション指向エージェントベースモデル生成
- Authors: Tong Niu, Weihao Zhang, Rong Zhao
- Abstract要約: エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
- 参考スコア(独自算出の注目度): 10.67134969207797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agent-based models (ABMs) stand as an essential paradigm for proposing and
validating hypothetical solutions or policies aimed at addressing challenges
posed by complex systems and achieving various objectives. This process demands
labor-intensive endeavors and multidisciplinary expertise. Large language
models (LLMs) encapsulating cross-domain knowledge and programming proficiency
could potentially alleviate the difficulty of this process. However, LLMs excel
in handling sequential information, making it challenging for analyzing the
intricate interactions and nonlinear dynamics inherent in ABMs. Additionally,
due to the lack of self-evaluation capability of LLMs, relying solely on LLMs
is insufficient to effectively accomplish this process. In this paper, we
present SAGE, a general solution-oriented ABM generation framework designed for
automatic modeling and generating solutions for targeted problems. Unlike
approaches reliant on expert handcrafting or resource-intensive neural network
training, SAGE establishes a verifier-assisted iterative in-context learning
process employing large language models (LLMs) to leverages their inherent
cross-domain knowledge for tackling intricate demands from diverse domain
scenarios. In SAGE, we introduce an semi-structured conceptual representation
expliciting the intricate structures of ABMs and an objective representation to
guide LLMs in modeling scenarios and proposing hypothetical solutions through
in-context learning. To ensure the model executability and solution
feasibility, SAGE devises a two-level verifier with chain-of-thought prompting
tailored to the complex interactions and non-linear dynamics of ABMs, driving
the iterative generation optimization. Moreover, we construct an evaluation
dataset of solution-oriented ABMs from open sources.It contains practical
models across various domains.
- Abstract(参考訳): エージェントベースモデル(abms)は、複雑なシステムによって引き起こされる課題に対処し、様々な目的を達成することを目的とした仮説的なソリューションやポリシーを提案し検証するための重要なパラダイムである。
このプロセスは労働集約的な取り組みと多分野の専門知識を必要とする。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
しかし、LSMはシーケンシャルな情報を扱うのに優れており、ABMに固有の複雑な相互作用や非線形力学を解析することは困難である。
また, LLMの自己評価能力の欠如により, LLMのみに依存しているため, この処理を効果的に行うには不十分である。
本稿では、ターゲット問題に対する自動モデリングおよびソリューション生成のための汎用ソリューション指向ABM生成フレームワークであるSAGEを提案する。
専門家の手工芸やリソース集約型ニューラルネットワークトレーニングに依存するアプローチとは異なり、SAGEは、大規模な言語モデル(LLM)を用いた検証支援反復型インコンテキスト学習プロセスを確立し、さまざまなドメインシナリオからの複雑な要求に対処するために、独自のクロスドメイン知識を活用する。
SAGEでは、ABMの複雑な構造を表わす半構造化概念表現と、シナリオのモデル化においてLLMを導く客観的表現を導入し、文脈内学習を通じて仮説解を提案する。
モデル実行可能性とソリューション実現性を確保するため、SAGEは、複雑な相互作用やABMの非線形ダイナミクスに合わせた2段階の検証器を考案し、反復生成最適化を推進した。
さらに, オープンソースからのソリューション指向abmの評価データセットを構築し, 様々な領域にわたる実用モデルを含む。
関連論文リスト
- Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Reasoning Capacity in Multi-Agent Systems: Limitations, Challenges and
Human-Centered Solutions [14.398238217358116]
推論能力の形式的定義を提示し,システムの各コンポーネント内の制限を識別する上で,その有用性を示す。
そして、これらの制限が、人間のフィードバックを使って推論の欠点を緩和する自己反射的プロセスによってどのように対処できるかについて議論する。
論文 参考訳(メタデータ) (2024-02-02T02:53:11Z) - SymbolicAI: A framework for logic-based approaches combining generative
models and solvers [10.558183419341514]
SymbolicAIは、生成プロセスにおける概念学習とフロー管理に論理ベースのアプローチを採用する、汎用的でモジュール化されたフレームワークである。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - Caught in the Quicksand of Reasoning, Far from AGI Summit: Evaluating
LLMs' Mathematical and Coding Competency through Ontology-guided
Interventions [50.68293377521595]
大規模言語モデル(LLM)は論理的推論ベンチマークで顕著な結果を示した。
算術的推論とコード生成という,2つの一般的な推論タスクに注目します。
質問に対して、すべてのモデルで大幅なパフォーマンス低下を見せています。
論文 参考訳(メタデータ) (2024-01-17T18:13:07Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Towards Efficient Generative Large Language Model Serving: A Survey from
Algorithms to Systems [14.355768064425598]
生成型大規模言語モデル(LLM)が最前線に立ち、データとのインタラクション方法に革命をもたらします。
しかし、これらのモデルをデプロイする際の計算強度とメモリ消費は、効率性の観点から大きな課題を呈している。
本研究は,機械学習システム(MLSys)研究の観点から,効率的なLCM提供手法の必要性について考察する。
論文 参考訳(メタデータ) (2023-12-23T11:57:53Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model
Collaboration [88.3753421239906]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Competence-Based Analysis of Language Models [24.09077801383941]
大規模で事前訓練されたニューラルネットワークモデル(LLM)は、入力やアプリケーションコンテキストの小さな変更に対して、驚くほど脆弱である。
当社の枠組みであるCALMは,LCM能力の最初の定量的尺度である。
我々は,勾配に基づく対向攻撃を用いた因果探究介入を行うための新しい手法を開発した。
論文 参考訳(メタデータ) (2023-03-01T08:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。