論文の概要: A Variational Inequality Approach to Bayesian Regression Games
- arxiv url: http://arxiv.org/abs/2103.13509v1
- Date: Wed, 24 Mar 2021 22:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:23:45.566193
- Title: A Variational Inequality Approach to Bayesian Regression Games
- Title(参考訳): ベイズ回帰ゲームに対する変分不等式アプローチ
- Authors: Wenshuo Guo, Michael I. Jordan, Tianyi Lin
- Abstract要約: 我々は凸類の一意性の存在を証明し、それを滑らかなコスト関数に一般化する。
必然的に強い収束で解くための2つの簡単なアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 90.79402153164587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian regression games are a special class of two-player general-sum
Bayesian games in which the learner is partially informed about the adversary's
objective through a Bayesian prior. This formulation captures the uncertainty
in regard to the adversary, and is useful in problems where the learner and
adversary may have conflicting, but not necessarily perfectly antagonistic
objectives. Although the Bayesian approach is a more general alternative to the
standard minimax formulation, the applications of Bayesian regression games
have been limited due to computational difficulties, and the existence and
uniqueness of a Bayesian equilibrium are only known for quadratic cost
functions. First, we prove the existence and uniqueness of a Bayesian
equilibrium for a class of convex and smooth Bayesian games by regarding it as
a solution of an infinite-dimensional variational inequality (VI) in Hilbert
space. We consider two special cases in which the infinite-dimensional VI
reduces to a high-dimensional VI or a nonconvex stochastic optimization, and
provide two simple algorithms of solving them with strong convergence
guarantees. Numerical results on real datasets demonstrate the promise of this
approach.
- Abstract(参考訳): ベイズ回帰ゲーム(英: bayesian regression games)は、2人プレイの一般サムベイズゲーム(英語版)の特殊クラスであり、学習者がベイズ前駆者を通じて敵の目的を部分的に知らされる。
この定式化は、敵意に関する不確実性を捉え、学習者と敵意が相反するかもしれない問題において有用であるが、必ずしも完全に敵対的な目的ではない。
ベイジアン・アプローチは標準的なミニマックスの定式化の代替となるが、ベイジアン回帰ゲームの適用は計算困難のために制限されており、ベイジアン均衡の存在と特異性は二次コスト関数でのみ知られている。
まず、ヒルベルト空間における無限次元変分不等式 (VI) の解として、凸と滑らかなベイズゲームのクラスに対するベイズ均衡の存在と特異性を証明する。
無限次元 VI が高次元 VI あるいは非凸確率最適化に還元される2つの特別な場合を考え、強い収束を保証する2つの簡単なアルゴリズムを提供する。
実データセットの数値結果は、このアプローチの可能性を実証している。
関連論文リスト
- Convex Markov Games: A Framework for Fairness, Imitation, and Creativity in Multi-Agent Learning [31.958202912400925]
コンベックス・マルコフゲーム(英語版)のクラスを導入し、占有度よりも一般的なコンベックス・プレイスを可能にする。
無限の時間的地平線とマルコフゲームよりも厳密な一般性にもかかわらず、純粋な戦略 ナッシュ平衡は厳密な凸性の下で存在する。
我々の実験は、最後通しゲームにおける人間の選択を模倣し、繰り返しの囚人のジレンマに対する新しい解決策を明らかにし、反復的な非対称調整ゲームにおいて公正な解決策を見つける。
論文 参考訳(メタデータ) (2024-10-22T00:55:04Z) - Pontryagin Neural Operator for Solving Parametric General-Sum Differential Games [24.012924492073974]
本稿では,ポントリャーギンモード型ニューラルオペレータが,パラメトリック状態制約のあるゲーム間での安全性能において,現在最先端のハイブリッドPINNモデルより優れていることを示す。
私たちの重要な貢献は、前方と後方のコストトロールアウトの相違について定義されたコストト損失の導入です。
状態制約違反を反映できるコストトダイナミクスにより,大きなリプシッツ定数を持つ微分可能な値の学習が効果的に可能であることを示す。
論文 参考訳(メタデータ) (2024-01-03T02:15:32Z) - Offline Learning in Markov Games with General Function Approximation [22.2472618685325]
マルコフゲームにおけるオフラインマルチエージェント強化学習(RL)について検討する。
マルコフゲームにおけるサンプル効率のよいオフライン学習のための最初のフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T05:22:27Z) - Global Nash Equilibrium in Non-convex Multi-player Game: Theory and
Algorithms [66.8634598612777]
ナッシュ均衡(NE)はマルチプレイヤーゲームにおいて全てのプレイヤーに受け入れられることを示す。
また、一般理論から一歩ずつ一方的に利益を得ることはできないことも示している。
論文 参考訳(メタデータ) (2023-01-19T11:36:50Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Preference learning along multiple criteria: A game-theoretic
perspective [97.94912276610002]
我々は、ブラックウェルの接近性からインスピレーションを得て、フォン・ノイマンの勝者の概念をマルチ基準設定に一般化する。
本フレームワークは,基準間の選好の非線形集約を可能にし,多目的最適化から線形化に基づくアプローチを一般化する。
凸最適化問題の解法として,マルチ基準問題インスタンスのブラックウェルの勝者が計算可能であることを示す。
論文 参考訳(メタデータ) (2021-05-05T03:23:11Z) - VIB is Half Bayes [80.3767111908235]
変分情報ボトルネックは, 完全経験的目標と完全ベイズ的目標との妥協と見なすことができる。
このアプローチはベイズの利点のいくつかを提供する一方で、一部の作業しか必要としない、と私たちは主張する。
論文 参考訳(メタデータ) (2020-11-17T15:36:35Z) - Online and Distribution-Free Robustness: Regression and Contextual
Bandits with Huber Contamination [29.85468294601847]
線形回帰と文脈的帯域幅という2つの古典的高次元オンライン学習問題を再考する。
従来の手法が失敗した場合にアルゴリズムが成功することを示す。
論文 参考訳(メタデータ) (2020-10-08T17:59:05Z) - Stochastic Hamiltonian Gradient Methods for Smooth Games [51.47367707388402]
ハミルトンの手法のクラスに焦点をあて、滑らかなゲームのあるクラスに対する最初の収束保証を提供する。
最適化文献からのツールを用いて、SHGDは勾配の近傍に直線的に収束することを示す。
この結果から,一般ゲームのクラスに対して,非漸近的でない最後の収束保証を初めて提供する。
論文 参考訳(メタデータ) (2020-07-08T15:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。