論文の概要: Multi-agent Adaptive Mechanism Design
- arxiv url: http://arxiv.org/abs/2512.21794v1
- Date: Thu, 25 Dec 2025 21:59:51 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:53:48.417006
- Title: Multi-agent Adaptive Mechanism Design
- Title(参考訳): マルチエージェント適応機構の設計
- Authors: Qiushi Han, David Simchi-Levi, Renfei Tan, Zishuo Zhao,
- Abstract要約: 本稿では,DRAM(Distributedally Robust Adaptive Mechanism)について紹介する。
我々のメカニズムは、$tildeO(sqrtT)$Optimative cumulative regretを達成しつつ、高い確率で真に報告することを保証する。
- 参考スコア(独自算出の注目度): 13.027684227860322
- License:
- Abstract: We study a sequential mechanism design problem in which a principal seeks to elicit truthful reports from multiple rational agents while starting with no prior knowledge of agents' beliefs. We introduce Distributionally Robust Adaptive Mechanism (DRAM), a general framework combining insights from both mechanism design and online learning to jointly address truthfulness and cost-optimality. Throughout the sequential game, the mechanism estimates agents' beliefs and iteratively updates a distributionally robust linear program with shrinking ambiguity sets to reduce payments while preserving truthfulness. Our mechanism guarantees truthful reporting with high probability while achieving $\tilde{O}(\sqrt{T})$ cumulative regret, and we establish a matching lower bound showing that no truthful adaptive mechanism can asymptotically do better. The framework generalizes to plug-in estimators, supporting structured priors and delayed feedback. To our knowledge, this is the first adaptive mechanism under general settings that maintains truthfulness and achieves optimal regret when incentive constraints are unknown and must be learned.
- Abstract(参考訳): 本稿では,複数の合理的エージェントから真理的なレポートを抽出する上で,エージェントの信念に関する事前の知識から始める,逐次的メカニズム設計問題について考察する。
DRAM(Distributedally Robust Adaptive Mechanism)は,メカニズム設計とオンライン学習の両方の知見を組み合わせて,真さとコスト最適化を両立させる一般的なフレームワークである。
逐次的なゲームを通して、メカニズムはエージェントの信念を推定し、分布的に堅牢な線形プログラムを反復的に更新し、あいまいさを減らし、真偽を保ちながら支払いを減らす。
我々のメカニズムは、$\tilde{O}(\sqrt{T})$ cumulative regretを達成しながら高い確率で真理報告を保証する。
このフレームワークは、プラグイン推定器に一般化され、構造化された事前をサポートし、フィードバックが遅れている。
我々の知る限りでは、これは一般的な条件下では初めての適応的なメカニズムであり、インセンティブ制約が未知であり、学習しなければならない場合に、誠実さを維持し、最適な後悔を達成する。
関連論文リスト
- Coherence Mechanisms for Provable Self-Improvement [38.3455527898461]
両立概念に基づく自己改善のための原則的枠組みを提案する。
我々は、この概念をプロジェクションに基づくメカニズムを用いて定式化し、ベースラインモデルを一貫した状態に更新すると同時に、元の振る舞いに可能な限り近づいたままにしておく。
我々の分析は包括的であり、遠近法と遠近法の両方を網羅し、これらの保証を実現不可能な設定にしっかりと拡張している。
論文 参考訳(メタデータ) (2025-11-11T16:45:14Z) - Stochastically Dominant Peer Prediction [11.183872292320824]
我々は、真理報告の強い保証として、支配的支配的(SD-truthfulness)を提案する。
単純な解 -- バイナリロータリーに丸めること -- は、SDトラスフルネスを強制するが、しばしば感度を低下させる。
ラウンドリングのより慎重な適用が、感度をよりよく維持できることを示す。
論文 参考訳(メタデータ) (2025-06-02T21:07:24Z) - Refined Mechanism Design for Approximately Structured Priors via Active
Regression [50.71772232237571]
我々は、大量の商品を戦略的入札者に販売する収益を最大化する販売業者の問題を考える。
この設定の最適かつほぼ最適のメカニズムは、特徴付けや計算が難しいことで有名である。
論文 参考訳(メタデータ) (2023-10-11T20:34:17Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Learning Dynamic Mechanisms in Unknown Environments: A Reinforcement Learning Approach [123.55983746427572]
本稿では,複数ラウンドの対話を通して動的ビックレー・クラーク・グローブ(VCG)機構を回復するための新しい学習アルゴリズムを提案する。
当社のアプローチの重要な貢献は、報酬のないオンライン強化学習(RL)を取り入れて、リッチな政策分野の探索を支援することである。
論文 参考訳(メタデータ) (2022-02-25T16:17:23Z) - VCG Mechanism Design with Unknown Agent Values under Stochastic Bandit
Feedback [104.06766271716774]
本研究では,エージェントが自己の価値を知らない場合に,マルチラウンドの福祉最大化機構設計問題について検討する。
まず、福祉に対する後悔の3つの概念、各エージェントの個々のユーティリティ、メカニズムの3つの概念を定義します。
当社のフレームワークは価格体系を柔軟に制御し、エージェントと販売者の後悔のトレードオフを可能にする。
論文 参考訳(メタデータ) (2020-04-19T18:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。