論文の概要: Deep Learning for Two-Sided Matching
- arxiv url: http://arxiv.org/abs/2107.03427v1
- Date: Wed, 7 Jul 2021 18:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:44:22.513075
- Title: Deep Learning for Two-Sided Matching
- Title(参考訳): 双方向マッチングのための深層学習
- Authors: Sai Srivatsa Ravindranath, Zhe Feng, Shira Li, Jonathan Ma, Scott D.
Kominers, David C. Parkes
- Abstract要約: 戦略の安全性と安定性の間のデザイン空間を探求する。
安定性と戦略の安全性を両立させることが可能であることを示す。
- 参考スコア(独自算出の注目度): 20.331033710762295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We initiate the use of a multi-layer neural network to model two-sided
matching and to explore the design space between strategy-proofness and
stability. It is well known that both properties cannot be achieved
simultaneously but the efficient frontier in this design space is not
understood. We show empirically that it is possible to achieve a good
compromise between stability and strategy-proofness-substantially better than
that achievable through a convex combination of deferred acceptance (stable and
strategy-proof for only one side of the market) and randomized serial
dictatorship (strategy-proof but not stable).
- Abstract(参考訳): 我々は,双方向マッチングをモデル化するために多層ニューラルネットワークを使用し,戦略耐性と安定性の間の設計空間を探索する。
両方の特性が同時に達成できないことはよく知られているが、この設計空間における効率的なフロンティアは理解されていない。
我々は、遅延受容(市場の片側のみ安定かつ戦略保護)とランダム化されたシリアル独裁(戦略保護だが、安定ではない)の凸結合によって達成できるものよりも、安定性と戦略-防御-サブストラテティカルに優れた妥協を達成できることを実証的に示す。
関連論文リスト
- Distributionally Safe Reinforcement Learning under Model Uncertainty: A
Single-Level Approach by Differentiable Convex Programming [4.825619788907192]
We present a tractable distributionally safe reinforcement learning framework to enforce safety under a distributional shift by a Wasserstein metric。
トラクタビリティを向上させるために、まず双対性理論を用いて、低次最適化を無限次元確率空間から有限次元パラメトリック空間に変換する。
微分可能凸プログラミングにより、二段階安全な学習問題は、さらに2つの逐次計算効率のモジュールを持つ1つのレベルに削減される。
論文 参考訳(メタデータ) (2023-10-03T22:05:05Z) - Great Models Think Alike: Improving Model Reliability via Inter-Model
Latent Agreement [27.067551390457567]
基礎モデルの潜伏空間と潜伏空間との一致を測ることでモデルの信頼性を推定する。
この不整合問題を克服するために、潜伏空間間での周縁的合意尺度を設計する。
ホック後のモデルにおいて, 近所の合意を予測的信頼度に融合させることで, 信頼性が著しく向上することを示す。
論文 参考訳(メタデータ) (2023-05-02T15:02:17Z) - Risk-Averse Model Uncertainty for Distributionally Robust Safe
Reinforcement Learning [3.9821399546174825]
不確実な環境での安全な意思決定のための深層強化学習フレームワークを提案する。
我々は,このフレームワークに対して,分散的に堅牢な強化学習問題の特定のクラスと等価であることを示すことによって,堅牢性を保証する。
安全性の制約のある継続的制御タスクの実験では、当社のフレームワークが、さまざまな障害のあるテスト環境にわたるデプロイメント時に、堅牢なパフォーマンスと安全性を実現していることを示す。
論文 参考訳(メタデータ) (2023-01-30T00:37:06Z) - Online Learning with Knapsacks: the Best of Both Worlds [54.28273783164608]
オンライン学習の課題として,意思決定者が,リソース制約の有限セットに違反することなく,期待する報酬を最大化したい,という課題を提起する。
当社のフレームワークは,意思決定者がそのエビデンスを柔軟かつコスト論的に扱えるようにします。
論文 参考訳(メタデータ) (2022-02-28T12:10:48Z) - Pareto Adversarial Robustness: Balancing Spatial Robustness and
Sensitivity-based Robustness [60.05898366202854]
我々は、普遍的な敵の堅牢性を達成するための戦略を設計する。
我々の知識を最大限に活用するために、我々は多目的最適化による普遍的敵の堅牢性を考える最初の人物である。
論文 参考訳(メタデータ) (2021-11-03T03:28:30Z) - Learning Equilibria in Matching Markets from Bandit Feedback [139.29934476625488]
不確実性の下で安定した市場成果を学習するためのフレームワークとアルゴリズムを開発する。
私たちの研究は、大規模なデータ駆動の市場において、いつ、どのように安定したマッチングが生じるかを明らかにするための第一歩を踏み出します。
論文 参考訳(メタデータ) (2021-08-19T17:59:28Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Improving Ensemble Robustness by Collaboratively Promoting and Demoting
Adversarial Robustness [19.8818435601131]
アンサンブルベースの敵の訓練は、敵の攻撃に対する堅牢性を達成するための原則的アプローチである。
本研究では,アンサンブルモデルの委員会モデル間で協調する,シンプルかつ効果的な戦略を提案する。
提案する枠組みは, 対向移動可能性の低減と, アンサンブルメンバーの多様性の促進に資する。
論文 参考訳(メタデータ) (2020-09-21T04:54:38Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z) - Partially Observable Games for Secure Autonomy [24.23487459915111]
2人のプレイヤーによる部分的に観察可能なゲームフォーマリズムは、不確実性の下でのハイレベルな自律ミッション計画と、不完全な情報に基づく敵の意思決定の両方を捉えることを提案した。
自律型意思決定とサイバーアドバイザリーの両方の有限メモリ仮定の下で,このようなゲームに対する準最適戦略の合成が可能であることを示す。
論文 参考訳(メタデータ) (2020-02-05T19:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。