論文の概要: Optimal-er Auctions through Attention
- arxiv url: http://arxiv.org/abs/2202.13110v1
- Date: Sat, 26 Feb 2022 10:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:48:02.898826
- Title: Optimal-er Auctions through Attention
- Title(参考訳): 注意による最適エアーオークション
- Authors: Dmitry Ivanov, Iskander Safiulin, Ksenia Balabaeva, Igor Filippov
- Abstract要約: 本稿では、RegretNetの2つの独立した修正、すなわち、TransRegretと呼ばれるアテンションメカニズムに基づく新しいニューラルアーキテクチャと、解釈可能な代替損失関数を提案する。
あらゆる実験において、TransRegretは既存のアーキテクチャの収益を一貫して上回っていることが分かりました。
- 参考スコア(独自算出の注目度): 3.1423836318272773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RegretNet is a recent breakthrough in the automated design of
revenue-maximizing auctions. It combines the expressivity of deep learning with
the regret-based approach to relax and quantify the Incentive Compatibility
constraint (that participants benefit from bidding truthfully). As a follow-up
to its success, we propose two independent modifications of RegretNet, namely a
new neural architecture based on the attention mechanism, denoted as
TransRegret, and an alternative loss function that is interpretable and
significantly less sensitive to hyperparameters. We investigate both proposed
modifications in an extensive experimental study in settings with fixed and
varied input sizes and additionally test out-of-setting generalization of our
network. In all experiments, we find that TransRegret consistently outperforms
existing architectures in revenue. Regarding our loss modification, we confirm
its effectiveness at controlling the revenue-regret trade-off by varying a
single interpretable hyperparameter.
- Abstract(参考訳): RegretNetは、収益を最大化するオークションの自動設計における最近のブレークスルーである。
深い学習の表現力と後悔に基づくアプローチを組み合わせることで、インセンティブ・コンパティビリティの制約を緩和し、定量化する(参加者は真に入札することで利益を得る)。
その成功のフォローアップとして、restenetの2つの独立した変更、すなわちtransregretと呼ばれるアテンションメカニズムに基づく新しいニューラルアーキテクチャと、ハイパーパラメータに対して解釈可能で著しく感度が低い代替損失関数を提案する。
提案する2つの修正について,入力サイズと入力サイズが異なる設定における広範囲な実験で検討し,さらにネットワークのアウト・オブ・セッティング・ジェネリゼーションをテストした。
あらゆる実験において、TransRegretは収益において既存のアーキテクチャよりも一貫して優れています。
損失修正については、1つの解釈可能なハイパーパラメータを変化させることで、収益と収益のトレードオフを制御する効果を確認した。
関連論文リスト
- Uncertainty-Aware Deep Attention Recurrent Neural Network for
Heterogeneous Time Series Imputation [0.25112747242081457]
欠落は多変量時系列においてユビキタスであり、信頼できる下流分析の障害となる。
本稿では、欠落した値とその関連不確かさを共同で推定するDeep Attention Recurrent Imputation (Imputation)を提案する。
実験の結果,実世界のデータセットを用いた多様な計算タスクにおいて,SOTAを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-04T13:21:11Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Benefits of Permutation-Equivariance in Auction Mechanisms [90.42990121652956]
競売人の収益を最大化しつつ、競売人の過去の後悔を最小限にする競売メカニズムは、経済学において重要であるが複雑な問題である。
ニューラルネットワークによる最適なオークションメカニズムの学習を通じて、注目すべき進歩が達成されている。
論文 参考訳(メタデータ) (2022-10-11T16:13:25Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - No Parameters Left Behind: Sensitivity Guided Adaptive Learning Rate for
Training Large Transformer Models [132.90062129639705]
本稿では,全てのパラメータを十分に訓練するための新しいトレーニング戦略を提案する。
感度の低いパラメータは冗長であり、学習率を高めて適合性を改善する。
対照的に、高い感度を持つパラメータを十分に訓練し、学習率を下げて正規化することで、さらなる過度なオーバーフィッティングを防止する。
論文 参考訳(メタデータ) (2022-02-06T00:22:28Z) - Adaptation through prediction: multisensory active inference torque
control [0.0]
本稿では,産業用アームのための多感能動型トルクコントローラを提案する。
私たちのコントローラは、予測的脳仮説にインスパイアされ、現在のアクティブな推論アプローチの能力を向上します。
論文 参考訳(メタデータ) (2021-12-13T16:03:18Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Attention that does not Explain Away [54.42960937271612]
Transformerアーキテクチャに基づくモデルは、大規模なタスクに対して競合するアーキテクチャに基づくモデルよりも精度が高い。
Transformerのユニークな特徴は、任意の距離で自由な情報の流れを可能にする自己認識機構の普遍的な応用である。
本稿では,実装が簡単で,"説明的回避"効果を避けるための理論的保証を提供する,二重正規化アテンション方式を提案する。
論文 参考訳(メタデータ) (2020-09-29T21:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。