論文の概要: How AI Agents Follow the Herd of AI? Network Effects, History, and Machine Optimism
- arxiv url: http://arxiv.org/abs/2512.11943v1
- Date: Fri, 12 Dec 2025 12:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.044846
- Title: How AI Agents Follow the Herd of AI? Network Effects, History, and Machine Optimism
- Title(参考訳): AIエージェントはどのようにAIの群れを追うか? ネットワーク効果、歴史、機械最適化
- Authors: Yu Liu, Wenwen Li, Yifan Dou, Guangnan Ye,
- Abstract要約: 本研究では,AIエージェントがネットワーク効果ゲームをどのようにナビゲートするかを検討する。
本稿では,大規模言語モデル(LLM)に基づくエージェントを用いた新しいワークフロー設計を提案する。
- 参考スコア(独自算出の注目度): 7.1683021355290295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding decision-making in multi-AI-agent frameworks is crucial for analyzing strategic interactions in network-effect-driven contexts. This study investigates how AI agents navigate network-effect games, where individual payoffs depend on peer participatio--a context underexplored in multi-agent systems despite its real-world prevalence. We introduce a novel workflow design using large language model (LLM)-based agents in repeated decision-making scenarios, systematically manipulating price trajectories (fixed, ascending, descending, random) and network-effect strength. Our key findings include: First, without historical data, agents fail to infer equilibrium. Second, ordered historical sequences (e.g., escalating prices) enable partial convergence under weak network effects but strong effects trigger persistent "AI optimism"--agents overestimate participation despite contradictory evidence. Third, randomized history disrupts convergence entirely, demonstrating that temporal coherence in data shapes LLMs' reasoning, unlike humans. These results highlight a paradigm shift: in AI-mediated systems, equilibrium outcomes depend not just on incentives, but on how history is curated, which is impossible for human.
- Abstract(参考訳): マルチAIエージェントフレームワークにおける意思決定を理解することは、ネットワーク効果駆動のコンテキストにおける戦略的相互作用を分析する上で不可欠である。
本研究では,AIエージェントが,個々のペイオフがピア参加に依存するネットワーク効果ゲームをどのようにナビゲートするかを検討する。
本稿では,大規模言語モデル(LLM)をベースとしたエージェントを用いて,意思決定の繰り返し,価格トラジェクトリ(固定,昇降,ランダム)とネットワーク効果の強度を体系的に操作するワークフロー設計を提案する。
まず、歴史的データがなければ、エージェントは均衡を推測できません。
第二に、順序付けられた歴史的シーケンス(例えば価格のエスカレート)は、弱いネットワーク効果の下で部分収束を可能にするが、強い効果は永続的な「AI楽観主義」を引き起こす。
第三にランダム化された歴史は収束を完全に破壊し、データ中の時間的コヒーレンスが人間とは異なりLLMの推論を形作ることを示した。
これらの結果は、AIを介するシステムでは、均衡の結果はインセンティブだけでなく、人類にとって不可能な歴史のキュレーションにも依存する、というパラダイムシフトを浮き彫りにしている。
関連論文リスト
- What's the next frontier for Data-centric AI? Data Savvy Agents [71.76058707995398]
我々は、エージェントシステムの設計において、データに精通する能力が最優先すべきであると主張している。
本稿では,このビジョンを実現するための4つの重要な機能を提案する。プロアクティブデータ取得,ソフシフィケートデータ処理,インタラクティブテストデータ合成,連続的適応。
論文 参考訳(メタデータ) (2025-11-02T17:09:29Z) - A Tutorial on Cognitive Biases in Agentic AI-Driven 6G Autonomous Networks [3.0475538102144575]
本稿では, 分類, 定義, 数学的定式化, 通信システムの出現, 一般に影響を受けるエージェント成分など, よく知られたバイアスの選択に関するチュートリアルを提供する。
また、バイアスの種類ごとに調整された様々な緩和戦略も提示する。
この記事は最終的に2つの実用的なユースケースを提供し、これは6G間スライスとクロスドメイン管理における有名なバイアスの出現、影響、緩和に対処するものである。
論文 参考訳(メタデータ) (2025-10-22T19:05:04Z) - Impatient Users Confuse AI Agents: High-fidelity Simulations of Human Traits for Testing Agents [58.00130492861884]
TraitBasisは、AIエージェントを体系的にストレステストするための軽量でモデルに依存しない方法である。
TraitBasisは、ステアブルなユーザ特性に対応するアクティベーション空間で方向を学習する。
We observed on average a 2%-30% performance degradation on $tau$-Trait across frontier model。
論文 参考訳(メタデータ) (2025-10-06T05:03:57Z) - The Collaboration Paradox: Why Generative AI Requires Both Strategic Intelligence and Operational Stability in Supply Chain Management [0.0]
経済環境における自律的、AI駆動エージェントの台頭は、その突発的な戦略行動に関する批判的な疑問を提起する。
本稿では,複数エケロン系サプライチェーンの協調的文脈におけるこれらのダイナミクスについて検討する。
私たちの中心的な発見は、"コラボレーションパラドックス"(colaboration paradox)です。これは、理論上優れた協調AIエージェントが非AIベースラインよりもさらにパフォーマンスが劣る、新しい、破滅的な障害モードです。
論文 参考訳(メタデータ) (2025-08-19T15:31:23Z) - Scalable, Symbiotic, AI and Non-AI Agent Based Parallel Discrete Event Simulations [0.0]
本稿では,複数のAIエージェントと非AIエージェントを組み合わせた並列離散イベントシミュレーション(PDES)手法を提案する。
我々は、4つの異なるドメインから4つの問題を解き、その結果をAIモデルだけで比較することで、我々のアプローチを評価する。
その結果,バニラモデルの精度が23%未満であるため,アプローチ全体の精度は68%であった。
論文 参考訳(メタデータ) (2025-05-28T17:50:01Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。