論文の概要: Riemannian Manifold Learning for Stackelberg Games with Neural Flow Representations
- arxiv url: http://arxiv.org/abs/2502.05498v1
- Date: Sat, 08 Feb 2025 09:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:35.558509
- Title: Riemannian Manifold Learning for Stackelberg Games with Neural Flow Representations
- Title(参考訳): ニューラルネットワーク表現を用いたスタックルバーグゲームのためのリーマン多様体学習
- Authors: Larkin Liu, Kashif Rasul, Yutong Chao, Jalal Etesami,
- Abstract要約: Stackelbergの汎用ゲームにおいて,オンライン学習のための新しいフレームワークを提案する。
このアプローチの中核は、共同作用空間を滑らかなリーマン多様体に写す学習微分同相である。
この写像は、ニューラル正規化フローによって促進され、トラクタブルなイソプラナー部分空間の形成を保証する。
- 参考スコア(独自算出の注目度): 7.830602875697329
- License:
- Abstract: We present a novel framework for online learning in Stackelberg general-sum games, where two agents, the leader and follower, engage in sequential turn-based interactions. At the core of this approach is a learned diffeomorphism that maps the joint action space to a smooth Riemannian manifold, referred to as the Stackelberg manifold. This mapping, facilitated by neural normalizing flows, ensures the formation of tractable isoplanar subspaces, enabling efficient techniques for online learning. By assuming linearity between the agents' reward functions on the Stackelberg manifold, our construct allows the application of standard bandit algorithms. We then provide a rigorous theoretical basis for regret minimization on convex manifolds and establish finite-time bounds on simple regret for learning Stackelberg equilibria. This integration of manifold learning into game theory uncovers a previously unrecognized potential for neural normalizing flows as an effective tool for multi-agent learning. We present empirical results demonstrating the effectiveness of our approach compared to standard baselines, with applications spanning domains such as cybersecurity and economic supply chain optimization.
- Abstract(参考訳): そこで我々は,Stackelbergの汎用ゲームにおいて,リーダーとフォロワーの2人のエージェントが逐次的なターンベースインタラクションを行う,オンライン学習のための新しいフレームワークを提案する。
このアプローチの中核は、共同作用空間を滑らかなリーマン多様体(英語版)(Stackelberg manifold)と呼ばれる)に写像する学習微分同相である。
このマッピングは、ニューラル正規化フローによって促進され、トラクタブルなイソプラナー部分空間の形成が保証され、オンライン学習の効率的な技術を可能にする。
Stackelberg多様体上のエージェントの報酬関数間の線型性を仮定することにより、我々の構成は標準バンディットアルゴリズムの適用を可能にする。
次に、凸多様体上の後悔最小化の厳密な理論的基礎を提供し、スタックルバーグ平衡を学ぶための単純後悔の有限時間境界を確立する。
このゲーム理論への多様体学習の統合は、マルチエージェント学習の効果的なツールとして、ニューラル正規化フローの未認識の可能性を明らかにする。
我々は,サイバーセキュリティや経済サプライチェーン最適化といった分野にまたがるアプリケーションを用いて,標準的なベースラインと比較して,我々のアプローチの有効性を示す実証的な結果を示す。
関連論文リスト
- An Infinite-Width Analysis on the Jacobian-Regularised Training of a Neural Network [10.384951432591492]
深部ニューラルネットワークの無限幅限界における最近の理論的分析により、ネットワークの初期化、特徴学習、トレーニングに対する理解が深まりました。
この無限幅解析は、ディープニューラルネットワークのヤコビアンにまで拡張可能であることを示す。
我々は、広い有限ネットワークに対する理論的主張の関連性を実験的に示し、核回帰解の性質を実験的に解析し、ヤコビアン正則化の洞察を得る。
論文 参考訳(メタデータ) (2023-12-06T09:52:18Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Provable Model-based Nonlinear Bandit and Reinforcement Learning: Shelve
Optimism, Embrace Virtual Curvature [61.22680308681648]
決定論的報酬を有する1層ニューラルネットバンディットにおいても,グローバル収束は統計的に難解であることを示す。
非線形バンディットとRLの両方に対して,オンラインモデル学習者による仮想アセンジ(Virtual Ascent with Online Model Learner)というモデルベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-08T12:41:56Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Optimizing Neural Networks via Koopman Operator Theory [6.09170287691728]
クープマン作用素理論は近年、ニューラルネットワーク理論と密接に関連していることが示されている。
この作業では、この接続を利用するための第一歩を踏み出します。
クープマン作用素理論法は、非自明な訓練時間の範囲で、供給重みの重みと偏りの予測を可能にする。
論文 参考訳(メタデータ) (2020-06-03T16:23:07Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。