論文の概要: Optimal-er Auctions through Attention
- arxiv url: http://arxiv.org/abs/2202.13110v1
- Date: Sat, 26 Feb 2022 10:47:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:48:02.898826
- Title: Optimal-er Auctions through Attention
- Title(参考訳): 注意による最適エアーオークション
- Authors: Dmitry Ivanov, Iskander Safiulin, Ksenia Balabaeva, Igor Filippov
- Abstract要約: 本稿では、RegretNetの2つの独立した修正、すなわち、TransRegretと呼ばれるアテンションメカニズムに基づく新しいニューラルアーキテクチャと、解釈可能な代替損失関数を提案する。
あらゆる実験において、TransRegretは既存のアーキテクチャの収益を一貫して上回っていることが分かりました。
- 参考スコア(独自算出の注目度): 3.1423836318272773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RegretNet is a recent breakthrough in the automated design of
revenue-maximizing auctions. It combines the expressivity of deep learning with
the regret-based approach to relax and quantify the Incentive Compatibility
constraint (that participants benefit from bidding truthfully). As a follow-up
to its success, we propose two independent modifications of RegretNet, namely a
new neural architecture based on the attention mechanism, denoted as
TransRegret, and an alternative loss function that is interpretable and
significantly less sensitive to hyperparameters. We investigate both proposed
modifications in an extensive experimental study in settings with fixed and
varied input sizes and additionally test out-of-setting generalization of our
network. In all experiments, we find that TransRegret consistently outperforms
existing architectures in revenue. Regarding our loss modification, we confirm
its effectiveness at controlling the revenue-regret trade-off by varying a
single interpretable hyperparameter.
- Abstract(参考訳): RegretNetは、収益を最大化するオークションの自動設計における最近のブレークスルーである。
深い学習の表現力と後悔に基づくアプローチを組み合わせることで、インセンティブ・コンパティビリティの制約を緩和し、定量化する(参加者は真に入札することで利益を得る)。
その成功のフォローアップとして、restenetの2つの独立した変更、すなわちtransregretと呼ばれるアテンションメカニズムに基づく新しいニューラルアーキテクチャと、ハイパーパラメータに対して解釈可能で著しく感度が低い代替損失関数を提案する。
提案する2つの修正について,入力サイズと入力サイズが異なる設定における広範囲な実験で検討し,さらにネットワークのアウト・オブ・セッティング・ジェネリゼーションをテストした。
あらゆる実験において、TransRegretは収益において既存のアーキテクチャよりも一貫して優れています。
損失修正については、1つの解釈可能なハイパーパラメータを変化させることで、収益と収益のトレードオフを制御する効果を確認した。
関連論文リスト
- Beyond Pruning Criteria: The Dominant Role of Fine-Tuning and Adaptive Ratios in Neural Network Robustness [7.742297876120561]
ディープニューラルネットワーク(DNN)は、画像認識や自然言語処理といったタスクに優れています。
従来のプルーニング手法は、微妙な摂動に耐えるネットワークの能力を損なう。
本稿では,プライドネットワークの性能決定要因として,従来の重み付け重み付けの重視に挑戦する。
論文 参考訳(メタデータ) (2024-10-19T18:35:52Z) - Alpha-VI DeepONet: A prior-robust variational Bayesian approach for enhancing DeepONets with uncertainty quantification [0.0]
一般化変分推論(GVI)を組み込んだ新しいディープオペレータネットワーク(DeepONet)を提案する。
分岐ネットワークとトランクネットワークのビルディングブロックとしてベイズニューラルネットワークを組み込むことで,不確実な定量化が可能なDeepONetを実現する。
変動目的関数の修正は平均二乗誤差を最小化する点で優れた結果をもたらすことを示す。
論文 参考訳(メタデータ) (2024-08-01T16:22:03Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - Benefits of Permutation-Equivariance in Auction Mechanisms [90.42990121652956]
競売人の収益を最大化しつつ、競売人の過去の後悔を最小限にする競売メカニズムは、経済学において重要であるが複雑な問題である。
ニューラルネットワークによる最適なオークションメカニズムの学習を通じて、注目すべき進歩が達成されている。
論文 参考訳(メタデータ) (2022-10-11T16:13:25Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Hybrid Predictive Coding: Inferring, Fast and Slow [62.997667081978825]
本稿では,反復型と償却型の両方を原則的に組み合わせたハイブリッド予測符号化ネットワークを提案する。
我々は,本モデルが本質的に不確実性に敏感であり,最小計算費用を用いて正確な信念を得るためにバランスを適応的にバランスさせることを実証した。
論文 参考訳(メタデータ) (2022-04-05T12:52:45Z) - Adaptation through prediction: multisensory active inference torque
control [0.0]
本稿では,産業用アームのための多感能動型トルクコントローラを提案する。
私たちのコントローラは、予測的脳仮説にインスパイアされ、現在のアクティブな推論アプローチの能力を向上します。
論文 参考訳(メタデータ) (2021-12-13T16:03:18Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Attention that does not Explain Away [54.42960937271612]
Transformerアーキテクチャに基づくモデルは、大規模なタスクに対して競合するアーキテクチャに基づくモデルよりも精度が高い。
Transformerのユニークな特徴は、任意の距離で自由な情報の流れを可能にする自己認識機構の普遍的な応用である。
本稿では,実装が簡単で,"説明的回避"効果を避けるための理論的保証を提供する,二重正規化アテンション方式を提案する。
論文 参考訳(メタデータ) (2020-09-29T21:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。