論文の概要: Agentic LLM Framework for Adaptive Decision Discourse
- arxiv url: http://arxiv.org/abs/2502.10978v1
- Date: Sun, 16 Feb 2025 03:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:16:36.560282
- Title: Agentic LLM Framework for Adaptive Decision Discourse
- Title(参考訳): 適応決定談話のためのエージェントLLMフレームワーク
- Authors: Antoine Dolant, Praveen Kumar,
- Abstract要約: 本研究では,実世界のエージェント型大規模言語モデル(LLM)フレームワークを紹介する。
従来の意思決定支援ツールとは異なり、このフレームワークは対話、トレードオフ探索、エージェント間の相互作用によって生成される創発的なシナジーを強調している。
その結果、第1次探索がいかに堅牢で公平なレコメンデーションパスを育むかが明らかとなった。
- 参考スコア(独自算出の注目度): 2.4919169815423743
- License:
- Abstract: Effective decision-making in complex systems requires synthesizing diverse perspectives to address multifaceted challenges under uncertainty. This study introduces a real-world inspired agentic Large Language Models (LLMs) framework, to simulate and enhance decision discourse-the deliberative process through which actionable strategies are collaboratively developed. Unlike traditional decision-support tools, the framework emphasizes dialogue, trade-off exploration, and the emergent synergies generated by interactions among agents embodying distinct personas. These personas simulate diverse stakeholder roles, each bringing unique priorities, expertise, and value-driven reasoning to the table. The framework incorporates adaptive and self-governing mechanisms, enabling agents to dynamically summon additional expertise and refine their assembly to address evolving challenges. An illustrative hypothetical example focused on extreme flooding in a Midwestern township demonstrates the framework's ability to navigate uncertainty, balance competing priorities, and propose mitigation and adaptation strategies by considering social, economic, and environmental dimensions. Results reveal how the breadth-first exploration of alternatives fosters robust and equitable recommendation pathways. This framework transforms how decisions are approached in high-stakes scenarios and can be incorporated in digital environments. It not only augments decision-makers' capacity to tackle complexity but also sets a foundation for scalable and context-aware AI-driven recommendations. This research explores novel and alternate routes leveraging agentic LLMs for adaptive, collaborative, and equitable recommendation processes, with implications across domains where uncertainty and complexity converge.
- Abstract(参考訳): 複雑なシステムにおける効果的な意思決定は、不確実性の下での多面的課題に対処するために様々な視点を合成する必要がある。
本研究では,実世界のエージェント型大規模言語モデル(LLM)フレームワークを導入し,行動可能な戦略を協調的に開発する議論プロセスのシミュレートと強化を行う。
従来の意思決定支援ツールとは異なり、このフレームワークは対話、トレードオフ探索、および異なるペルソナを具現化したエージェント間の相互作用によって生成される創発的なシナジーを強調している。
これらのペルソナは、さまざまなステークホルダーの役割をシミュレートし、それぞれが独自の優先順位、専門知識、価値駆動推論をテーブルにもたらす。
このフレームワークには適応的かつ自己管理のメカニズムが組み込まれており、エージェントは動的に追加の専門知識を呼び出し、進化する課題に対処するために組み立てを洗練できる。
中西部のタウンシップにおける極端な洪水に焦点を当てた実証的な仮説の例は、不確実性をナビゲートし、競合する優先順位をバランスさせ、社会的、経済的、環境的な側面を考慮して緩和と適応戦略を提案するフレームワークの能力を示している。
その結果、第1次探索がいかに堅牢で公平なレコメンデーションパスを育むかが明らかとなった。
このフレームワークは、高リスクシナリオにおける意思決定のアプローチ方法を変え、デジタル環境に組み込むことができる。
複雑性に対処する意思決定者の能力を増強するだけでなく、スケーラブルでコンテキスト対応のAI駆動レコメンデーションの基盤も確立している。
本研究は,不確実性と複雑性が収束する領域にまたがる適応的,協調的,公平なレコメンデーションプロセスに,エージェントLLMを活用する新規かつ代替的な経路について検討する。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
EPOはオープンなアクション空間で戦略を提供し、任意のLLMエージェントにプラグインすることで、ゴール指向の振る舞いを動機付けることができる。
社会的および物理的領域にわたる実験は、EPOの長期的なゴールアライメント能力を示す。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Position: Foundation Agents as the Paradigm Shift for Decision Making [24.555816843983003]
我々は,エージェントの学習パラダイムの変革的変化として,基礎エージェントの構築を提唱する。
我々は,大規模な対話型データ収集や生成から自己指導型事前学習,適応に至るまで,基礎エージェントのロードマップを定めている。
論文 参考訳(メタデータ) (2024-05-27T09:54:50Z) - Enhancing Decision-Making in Optimization through LLM-Assisted Inference: A Neural Networks Perspective [1.0420394952839245]
本稿では,生成型AI(GenAI)と進化型アルゴリズム(EA)のシームレスな統合について検討する。
大規模言語モデル(LLM)の変換的役割に着目し,LLM支援推論による意思決定プロセスの自動化と向上の可能性について検討した。
論文 参考訳(メタデータ) (2024-05-12T08:22:53Z) - Organizing a Society of Language Models: Structures and Mechanisms for Enhanced Collective Intelligence [0.0]
本稿では,大規模言語モデルからコミュニティ構造への変換手法を提案する。
協力型AIシステムに特有のメリットと課題を提示する,階層的,フラット,ダイナミック,フェデレートされたさまざまな組織モデルについて検討する。
このようなコミュニティの実装は、AIにおける問題解決能力を改善するための大きな約束を持っている。
論文 参考訳(メタデータ) (2024-05-06T20:15:45Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Transforming Competition into Collaboration: The Revolutionary Role of Multi-Agent Systems and Language Models in Modern Organizations [0.0]
本稿では,マルチエージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく計算エンティティがユーザインタラクションに与える影響について考察する。
提案手法では,大規模言語モデル (LLM) から発達したエージェントを用いて,行動要素を考慮したプロトタイピングを行う。
我々は,多エージェントシステム理論(SMA)と大規模言語モデル(LLM)に基づく革新的な利用に基づいて,組織戦略に有用なエージェントの開発の可能性を示す。
論文 参考訳(メタデータ) (2024-03-12T15:56:10Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。