論文の概要: Learning Truthful Mechanisms without Discretization
- arxiv url: http://arxiv.org/abs/2506.22911v1
- Date: Sat, 28 Jun 2025 14:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.628145
- Title: Learning Truthful Mechanisms without Discretization
- Title(参考訳): 離散化のない真理的なメカニズムの学習
- Authors: Yunxuan Ma, Siqiang Wang, Zhijian Duan, Yukun Cheng, Xiaotie Deng,
- Abstract要約: 本稿では、真理とユーティリティの最大化メカニズムを学習するための離散化フリーアルゴリズムであるTEDIを紹介する。
我々は、結果と価格をマッピングする関数として定義される価格規則の概念を定式化する。
本概念に基づき, 具体的条件下での真正な直接的機構に匹敵する新しいメニュー機構を提案する。
- 参考スコア(独自算出の注目度): 6.47853785922226
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces TEDI (Truthful, Expressive, and Dimension-Insensitive approach), a discretization-free algorithm to learn truthful and utility-maximizing mechanisms. Existing learning-based approaches often rely on discretization of outcome spaces to ensure truthfulness, which leads to inefficiency with increasing problem size. To address this limitation, we formalize the concept of pricing rules, defined as functions that map outcomes to prices. Based on this concept, we propose a novel menu mechanism, which can be equivalent to a truthful direct mechanism under specific conditions. The core idea of TEDI lies in its parameterization of pricing rules using Partial GroupMax Network, a new network architecture designed to universally approximate partial convex functions. To learn optimal pricing rules, we develop novel training techniques, including covariance trick and continuous sampling, to derive unbiased gradient estimators compatible with first-order optimization. Theoretical analysis establishes that TEDI guarantees truthfulness, full expressiveness, and dimension-insensitivity. Experimental evaluation in the studied auction setting demonstrates that TEDI achieves strong performance, competitive with or exceeding state-of-the-art methods. This work presents the first approaches to learn truthful mechanisms without outcome discretization, thereby enhancing algorithmic efficiency. The proposed concepts, network architecture, and learning techniques might offer potential value and provide new insights for automated mechanism design and differentiable economics.
- Abstract(参考訳): 本稿では,真理・ユーティリティ最大化機構を学習するための離散化フリーアルゴリズムであるTEDI(Truthful,Expressive,Dimension-Insensitive approach)を紹介する。
既存の学習ベースのアプローチは、しばしば真理性を保証するために結果空間の離散化に依存し、問題のサイズが大きくなると非効率になる。
この制限に対処するため、私たちは、成果を価格にマッピングする関数として定義される価格規則の概念を定式化します。
本概念に基づき, 具体的条件下での真正な直接的機構に匹敵する新しいメニュー機構を提案する。
TEDIの中核となる考え方は、部分凸関数を普遍的に近似するように設計された新しいネットワークアーキテクチャであるPartial GroupMax Networkを用いた価格規則のパラメータ化にある。
最適な価格設定規則を学習するために、共分散トリックや連続サンプリングを含む新しいトレーニング手法を開発し、一階最適化に適合する不偏勾配推定器を導出する。
理論分析はTEDIが真正性、完全な表現性、次元非感受性を保証することを証明している。
評価実験により,TEDIは高い性能,競争力,最先端手法以上の性能を達成できることが示された。
この研究は、結果の離散化なしに真理的なメカニズムを学ぶための最初のアプローチを示し、アルゴリズムの効率を向上する。
提案された概念、ネットワークアーキテクチャ、学習技術は潜在的な価値を提供し、自動化されたメカニズム設計と微分可能な経済学のための新しい洞察を提供するかもしれない。
関連論文リスト
- EKPC: Elastic Knowledge Preservation and Compensation for Class-Incremental Learning [53.88000987041739]
クラスインクリメンタルラーニング(Class-Incremental Learning, CIL)は、AIモデルを、時間とともに異なるクラスのシーケンシャルに到着したデータから継続的に学習可能にすることを目的としている。
本稿では, 重要度を考慮した重要度正規化 (IPR) と CIL のためのトレーニング可能なセマンティックドリフト補償 (TSDC) を統合したElastic Knowledge Preservation and Compensation (EKPC) 法を提案する。
論文 参考訳(メタデータ) (2025-06-14T05:19:58Z) - Towards Understanding the Optimization Mechanisms in Deep Learning [5.281849820329249]
本稿では,ディープニューラルネットワークを用いた教師付き分類のメカニズムを探るため,分布推定の観点を採用する。
後者では、オーバー・アンド・確率ランダム化のようなメカニズムに関する理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-03-29T08:46:13Z) - Interval Abstractions for Robust Counterfactual Explanations [15.954944873701503]
対実的説明(CE)は、説明可能なAI研究における主要なパラダイムとして現れている。
既存のメソッドは、生成したモデルのパラメータにわずかな変更が発生すると、しばしば無効になる。
本稿では,機械学習モデルのための新しいインターバル抽象化手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T18:24:34Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Efficiently Disentangle Causal Representations [37.1087310583588]
モデルの一般化能力との違いを近似して、標準的な機械学習フレームワークに適合するようにします。
学習者の新しい分布への適応速度に依存する最先端のアプローチとは対照的に,提案手法ではモデルの一般化能力を評価する必要がある。
論文 参考訳(メタデータ) (2022-01-06T07:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。