論文の概要: Mode Connectivity in Auction Design
- arxiv url: http://arxiv.org/abs/2305.11005v1
- Date: Thu, 18 May 2023 14:36:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:47:54.999080
- Title: Mode Connectivity in Auction Design
- Title(参考訳): オークションデザインにおけるモード接続性
- Authors: Christoph Hertrich, Yixin Tao, L\'aszl\'o A. V\'egh
- Abstract要約: オークションデザインはアルゴリズムゲーム理論における基本的な問題である。
微分経済学における最近の研究は、ニューラルネットワークが既知の最適なオークション機構を効率的に学習できることを示した。
- 参考スコア(独自算出の注目度): 6.123324869194195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal auction design is a fundamental problem in algorithmic game theory.
This problem is notoriously difficult already in very simple settings. Recent
work in differentiable economics showed that neural networks can efficiently
learn known optimal auction mechanisms and discover interesting new ones. In an
attempt to theoretically justify their empirical success, we focus on one of
the first such networks, RochetNet, and a generalized version for affine
maximizer auctions. We prove that they satisfy mode connectivity, i.e., locally
optimal solutions are connected by a simple, piecewise linear path such that
every solution on the path is almost as good as one of the two local optima.
Mode connectivity has been recently investigated as an intriguing empirical and
theoretically justifiable property of neural networks used for prediction
problems. Our results give the first such analysis in the context of
differentiable economics, where neural networks are used directly for solving
non-convex optimization problems.
- Abstract(参考訳): 最適オークション設計はアルゴリズムゲーム理論の基本的な問題である。
この問題は、非常に単純な設定ですでに難しいことで知られている。
微分経済学における最近の研究は、ニューラルネットワークが既知の最適なオークションメカニズムを効率的に学習し、興味深い新しいものを発見することができることを示した。
理論的に彼らの経験的成功を正当化するために、最初のネットワークであるRochetNetとアフィン最大値オークションの一般化バージョンに焦点を当てる。
すなわち、局所最適解は、その経路上のすべての解が2つの局所最適解のうちの1つとほぼ等しくなるような、単純かつ断片的な線形経路で連結される。
近年、予測問題に用いられるニューラルネットワークの興味深い経験的・理論的正当性として、モード接続が研究されている。
本研究は,非凸最適化問題を解くためにニューラルネットワークを直接使用する,微分可能経済学の文脈において,このような解析を初めて行った。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - No Wrong Turns: The Simple Geometry Of Neural Networks Optimization
Paths [12.068608358926317]
1次最適化アルゴリズムは、ディープニューラルネットワークにおいて好ましいミニマを効率的に見つけることが知られている。
2つの鍵経路における標本最適化量の基本的な幾何学的性質に焦点をあてる。
以上の結果から,最適化トラジェクトリは大きな障害に遭遇しないだけでなく,ほとんどのトレーニングにおいて安定なダイナミクスも維持できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-20T22:10:40Z) - Does a sparse ReLU network training problem always admit an optimum? [0.0]
最適解の存在は、特にスパースReLUニューラルネットワークの文脈において、必ずしも保証されないことを示す。
特に,特定の疎度パターンを持つディープネットワークにおける最適化問題は,必ずしも最適パラメータを持つとは限らないことを示す。
論文 参考訳(メタデータ) (2023-06-05T08:01:50Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Optimizing Mode Connectivity via Neuron Alignment [84.26606622400423]
経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-05T02:25:23Z) - Generative Adversarial Imitation Learning with Neural Networks: Global
Optimality and Convergence Rate [122.73276299136568]
ジェネレーティブポリシー模倣学習(GAIL)は、特にニューラルネットワークと組み合わせた場合、実際に非常に成功している。
実験的な成功にもかかわらず、GAILとニューラルネットワークがグローバルな最適解に収束するかどうかは不明だ。
論文 参考訳(メタデータ) (2020-03-08T03:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。