論文の概要: Bridging the Gap Between Estimated and True Regret Towards Reliable Regret Estimation in Deep Learning based Mechanism Design
- arxiv url: http://arxiv.org/abs/2601.13489v1
- Date: Tue, 20 Jan 2026 00:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.109184
- Title: Bridging the Gap Between Estimated and True Regret Towards Reliable Regret Estimation in Deep Learning based Mechanism Design
- Title(参考訳): 深層学習に基づくメカニズム設計における信頼度評価に向けての推定と真の回帰のギャップを埋めること
- Authors: Shuyuan You, Zhiqiang Zhuang, Kewen Wang, Zhe Wang,
- Abstract要約: 本稿では,計算コストを削減しつつ,後悔推定精度を大幅に向上させるガイド付き精細化手法を提案する。
提案手法は,ディープラーニングに基づくオークション機構におけるインセンティブの適合性を評価するための,より信頼性の高い基盤を提供する。
- 参考スコア(独自算出の注目度): 4.888008003483983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances, such as RegretNet, ALGnet, RegretFormer and CITransNet, use deep learning to approximate optimal multi item auctions by relaxing incentive compatibility (IC) and measuring its violation via ex post regret. However, the true accuracy of these regret estimates remains unclear. Computing exact regret is computationally intractable, and current models rely on gradient based optimizers whose outcomes depend heavily on hyperparameter choices. Through extensive experiments, we reveal that existing methods systematically underestimate actual regret (In some models, the true regret is several hundred times larger than the reported regret), leading to overstated claims of IC and revenue. To address this issue, we derive a lower bound on regret and introduce an efficient item wise regret approximation. Building on this, we propose a guided refinement procedure that substantially improves regret estimation accuracy while reducing computational cost. Our method provides a more reliable foundation for evaluating incentive compatibility in deep learning based auction mechanisms and highlights the need to reassess prior performance claims in this area.
- Abstract(参考訳): RegretNet、ALGnet、RegretFormer、CITransNetといった最近の進歩は、インセンティブ互換性(IC)を緩和し、過去の後悔を通じてその違反を測定することで、ディープラーニングを用いて最適な多項目オークションを近似している。
しかし、これらの後悔の見積の真の正確性は未だ不明である。
現在のモデルは勾配に基づく最適化器に依存しており、結果はハイパーパラメータの選択に大きく依存している。
大規模な実験を通じて、既存の手法が体系的に実際の後悔を過小評価することを明らかにする(いくつかのモデルでは、真の後悔は報告された後悔の数百倍大きい)。
この問題に対処するために、後悔の限界を低くし、効率的な後悔の近似を導入する。
これに基づいて,計算コストを削減しつつ,後悔推定精度を大幅に向上させる改良手法を提案する。
提案手法は,ディープラーニングに基づくオークション機構におけるインセンティブの適合性を評価するための,より信頼性の高い基盤を提供する。
関連論文リスト
- Addressing Overthinking in Large Vision-Language Models via Gated Perception-Reasoning Optimization [56.59356959631999]
Gated Perception-Reasoning Optimization (GPRO) は3つの決定経路間で動的に計算をルーティングするメタ推論コントローラである。
GPROは精度と効率を大幅に改善し、最近のスロー思考法よりも優れている。
論文 参考訳(メタデータ) (2026-01-07T23:05:17Z) - Arbitrage: Efficient Reasoning via Advantage-Aware Speculation [71.45710345765528]
投機的復号化は、高速だが不正確なドラフトモデルを用いて推論を加速し、自動回帰的にトークンを提案する。
しかし、意味論的に等価なステップにおけるトークンミスマッチによる不要な拒絶のため、従来のトークンレベルの投機的デコーディングは、タスクの推論に苦労する。
提案するArbitrageは,ドラフトモデルとターゲットモデルとの相対的優位性に基づいて動的に生成をルーティングする,新しいステップレベルの投機生成フレームワークである。
論文 参考訳(メタデータ) (2025-12-04T17:50:53Z) - Don't Think Longer, Think Wisely: Optimizing Thinking Dynamics for Large Reasoning Models [68.96619605651155]
大規模推論モデル(LRM)は、過度に考えることによって出力長を大幅に増加させる可能性がある。
モデル生成推論経路を異なる思考パターンに分割する動的最適化フレームワークを提案する。
提案手法は, 最大12%の精度向上を実現し, トークン使用量を約5,000から3,000に削減する。
論文 参考訳(メタデータ) (2025-05-27T20:59:29Z) - Decision from Suboptimal Classifiers: Excess Risk Pre- and Post-Calibration [52.70324949884702]
バッチ二分決定における近似的後続確率を用いた余剰リスクの定量化を行う。
我々は、再校正のみが後悔のほとんどに対処する体制と、後悔が集団的損失に支配される体制を識別する。
NLP実験では、これらの量によって、より高度なポストトレーニングの期待値が運用コストに値するかどうかが分かる。
論文 参考訳(メタデータ) (2025-03-23T10:52:36Z) - Optimistic Regret Bounds for Online Learning in Adversarial Markov Decision Processes [5.116582735311639]
コスト予測器のセットを活用して後悔を最小限に抑えることを目的とした,新たなAMDPの導入と研究を行う。
提案手法は,コスト予測器の推算力で優雅に劣化する残差である,確率の高いサブリニアな懐疑的後悔を実現するための新しいポリシー探索手法を開発する。
論文 参考訳(メタデータ) (2024-05-03T15:44:31Z) - Adaptive operator learning for infinite-dimensional Bayesian inverse problems [7.716833952167609]
本研究では,局所的に精度の高いサロゲートを強制することによって,モデリングエラーを段階的に低減できる適応型演算子学習フレームワークを開発した。
UKIフレームワークを用いて線形の場合において厳密な収束を保証する。
その結果,逆精度を維持しながら計算コストを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2023-10-27T01:50:33Z) - Optimal-er Auctions through Attention [3.1423836318272773]
本稿では、RegretNetの2つの独立した修正、すなわち、TransRegretと呼ばれるアテンションメカニズムに基づく新しいニューラルアーキテクチャと、解釈可能な代替損失関数を提案する。
あらゆる実験において、TransRegretは既存のアーキテクチャの収益を一貫して上回っていることが分かりました。
論文 参考訳(メタデータ) (2022-02-26T10:47:12Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。