論文の概要: Socially-Weighted Alignment: A Game-Theoretic Framework for Multi-Agent LLM Systems
- arxiv url: http://arxiv.org/abs/2602.14471v1
- Date: Mon, 16 Feb 2026 05:17:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.156915
- Title: Socially-Weighted Alignment: A Game-Theoretic Framework for Multi-Agent LLM Systems
- Title(参考訳): 社会的重み付け:マルチエージェントLLMシステムのためのゲーム理論フレームワーク
- Authors: Furkan Mumcu, Yasin Yilmaz,
- Abstract要約: 本稿では,エージェントの個人目的と集団福祉の推定を補間することにより,推論時間決定の修正を行うゲーム理論フレームワークを提案する。
以上の結果から, SWAは, 過負荷下での需要増加のために, エージェントがもはや限界的なインセンティブを持たない, 臨界しきい値$*=(n-)/(n-1)$を誘導することを示した。
- 参考スコア(独自算出の注目度): 17.658093330392052
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deploying large language model (LLM) agents in shared environments introduces a fundamental tension between individual alignment and collective stability: locally rational decisions can impose negative externalities that degrade system-level performance. We propose Socially-Weighted Alignment (SWA), a game-theoretic framework that modifies inference-time decision making by interpolating between an agent's private objective and an estimate of group welfare via a social weight $λ\in[0,1]$. In a shared-resource congestion game with $n$ agents and congestion severity $β$, we show that SWA induces a critical threshold $λ^*=(n-β)/(n-1)$ above which agents no longer have marginal incentive to increase demand under overload, yielding a phase transition from persistent congestion to stable operation near capacity. We further provide an inference-time algorithmic instantiation of SWA that does not require parameter updates or multi-agent reinforcement learning, and use a multi-agent simulation to empirically validate the predicted threshold behavior.
- Abstract(参考訳): 大きな言語モデル(LLM)エージェントを共有環境にデプロイすると、個々のアライメントと集合的安定性の間に根本的な緊張が生じます。
エージェントの個人目的と集団福祉の見積もりをソーシャルウェイトで補間することにより推論時間決定を調節するゲーム理論フレームワークであるSWA(Socially-Weighted Alignment)を提案する。
エージェントと混雑度が$β$の共有リソース共役ゲームにおいて、SWAが臨界しきい値$λ^*=(n-β)/(n-1)$を誘導することを示す。
さらに、パラメータ更新やマルチエージェント強化学習を必要としないSWAの推論時アルゴリズムのインスタンス化を行い、マルチエージェントシミュレーションを用いて予測しきい値の挙動を実験的に検証する。
関連論文リスト
- PhysicsAgentABM: Physics-Guided Generative Agent-Based Modeling [47.029742241618635]
大規模言語モデル(LLM)に基づくマルチエージェントシステムでは,表現的エージェント推論が可能であるが,拡張性は高く,時間段階整合状態遷移シミュレーションではキャリブレーションが不十分である。
本研究では,推論を行動コヒーレントなエージェントクラスタにシフトさせる物理AgentABMを提案する。
公衆衛生、ファイナンス、社会科学における実験は、機械的、神経的、LLMベースラインに対する事象時の精度と校正において一貫した利得を示している。
論文 参考訳(メタデータ) (2026-02-05T18:59:01Z) - Phase Transition for Budgeted Multi-Agent Synergy [41.486076708302456]
マルチエージェントシステムは信頼性を向上させることができるが、固定された推論予算の下では、しばしば役立つか、飽和するか、崩壊するかさえある。
我々は、現代のエージェントスタックの3つの束縛制約からこれらの状態を予測する最小限の校正可能な理論を開発する。
論文 参考訳(メタデータ) (2026-01-24T05:32:50Z) - The Silent Scholar Problem: A Probabilistic Framework for Breaking Epistemic Asymmetry in LLM Agents [0.6117371161379209]
本稿では,エージェントに双方向知識交換のための非構造的動機を与える形式的確率的枠組みを提案する。
これらの蓄積された信念状態が、人間フィードバックからの強化学習(RLHF)と監視ファインチューニング(SFT)のための高品質データフィルタの検証可能な報酬信号としてどのように機能するかを示す。
シミュレーションの結果、この不確実性駆動型戦略が異種環境におけるランダムベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2025-12-24T02:02:25Z) - STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - DASA: Delay-Adaptive Multi-Agent Stochastic Approximation [64.32538247395627]
我々は,N$エージェントが並列に動作し,中央サーバと通信することで,一般的な近似問題を高速化することを目的とした設定を考える。
遅延とストラグラーの効果を軽減するために,マルチエージェント近似のための遅延適応アルゴリズムである textttDASA を提案する。
論文 参考訳(メタデータ) (2024-03-25T22:49:56Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。