論文の概要: The Collaboration Paradox: Why Generative AI Requires Both Strategic Intelligence and Operational Stability in Supply Chain Management
- arxiv url: http://arxiv.org/abs/2508.13942v1
- Date: Tue, 19 Aug 2025 15:31:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.989939
- Title: The Collaboration Paradox: Why Generative AI Requires Both Strategic Intelligence and Operational Stability in Supply Chain Management
- Title(参考訳): コラボレーションのパラドックス:なぜジェネレーティブAIはサプライチェーン管理において戦略的知性と運用上の安定性の両方を必要とするのか
- Authors: Soumyadeep Dhar,
- Abstract要約: 経済環境における自律的、AI駆動エージェントの台頭は、その突発的な戦略行動に関する批判的な疑問を提起する。
本稿では,複数エケロン系サプライチェーンの協調的文脈におけるこれらのダイナミクスについて検討する。
私たちの中心的な発見は、"コラボレーションパラドックス"(colaboration paradox)です。これは、理論上優れた協調AIエージェントが非AIベースラインよりもさらにパフォーマンスが劣る、新しい、破滅的な障害モードです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of autonomous, AI-driven agents in economic settings raises critical questions about their emergent strategic behavior. This paper investigates these dynamics in the cooperative context of a multi-echelon supply chain, a system famously prone to instabilities like the bullwhip effect. We conduct computational experiments with generative AI agents, powered by Large Language Models (LLMs), within a controlled supply chain simulation designed to isolate their behavioral tendencies. Our central finding is the "collaboration paradox": a novel, catastrophic failure mode where theoretically superior collaborative AI agents, designed with Vendor-Managed Inventory (VMI) principles, perform even worse than non-AI baselines. We demonstrate that this paradox arises from an operational flaw where agents hoard inventory, starving the system. We then show that resilience is only achieved through a synthesis of two distinct layers: high-level, AI-driven proactive policy-setting to establish robust operational targets, and a low-level, collaborative execution protocol with proactive downstream replenishment to maintain stability. Our final framework, which implements this synthesis, can autonomously generate, evaluate, and quantify a portfolio of viable strategic choices. The work provides a crucial insight into the emergent behaviors of collaborative AI agents and offers a blueprint for designing stable, effective AI-driven systems for business analytics.
- Abstract(参考訳): 経済環境における自律的、AI駆動エージェントの台頭は、その突発的な戦略行動に関する批判的な疑問を提起する。
本稿では, ブルウィップ効果のような不安定性に起因した多エキロン系サプライチェーンの協調的文脈におけるこれらのダイナミクスについて検討する。
我々は,Large Language Models (LLM) を用いた生成AIエージェントを用いて,行動傾向の分離を目的とした制御されたサプライチェーンシミュレーションにより計算実験を行う。
私たちの中心的な発見は“コラボレーションのパラドックス”です – 理論的に優れた協力型AIエージェントを,ベンダ管理インベントリ(VMI)の原則で設計した,非AIベースラインよりもさらにパフォーマンスの悪い,破滅的な障害モードです。
このパラドックスは、エージェントが在庫を引き揚げ、システムを飢えさせるという、運用上の欠陥から生じることを実証する。
次に、レジリエンスは、堅牢な運用目標を確立するための高レベル、AI駆動のプロアクティブポリシー設定と、安定性を維持するために、プロアクティブな下流補充を伴う低レベルの協調実行プロトコルの2つの異なるレイヤの合成によってのみ達成されることを示す。
この合成を実装した最終フレームワークは、実行可能な戦略選択のポートフォリオを自律的に生成、評価、定量化することができます。
この研究は、協力的なAIエージェントの創発的行動に関する重要な洞察を提供し、ビジネス分析のための安定的で効果的なAI駆動システムを設計するための青写真を提供する。
関連論文リスト
- Graphs Meet AI Agents: Taxonomy, Progress, and Future Opportunities [117.49715661395294]
データ構造化は、複雑で非組織的なデータをよく構造化された形式に変換することで、有望な役割を果たす。
この調査では、グラフがAIエージェントにどのように権限を与えるかを、初めて体系的にレビューする。
論文 参考訳(メタデータ) (2025-06-22T12:59:12Z) - AI is the Strategy: From Agentic AI to Autonomous Business Models onto Strategy in the Age of AI [0.0]
私たちは現在、エージェントAIが価値創造、デリバリ、キャプチャのコアメカニズムを実行することができる段階に入りつつある、と論じています。
このシフトは、AIを戦略をサポートするツールではなく、戦略そのものとして再編成する。
ABMがエージェント実行、継続的適応、段階的な人的意思決定のオフロードを通じて、競争上の優位性をいかに作り直すかを示す。
論文 参考訳(メタデータ) (2025-06-19T11:11:06Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Artificial Intelligence and Dual Contract [2.1756081703276]
独立したQ-ラーニングアルゴリズムを備えた2つのプリンシパルが1つのエージェントと対話するモデルを開発する。
その結果、AIプリンシパルの戦略的行動は、利益の整合性に決定的に左右されることがわかった。
論文 参考訳(メタデータ) (2023-03-22T07:31:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。