論文の概要: Relu and softplus neural nets as zero-sum turn-based games
- arxiv url: http://arxiv.org/abs/2512.20582v1
- Date: Tue, 23 Dec 2025 18:27:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.969206
- Title: Relu and softplus neural nets as zero-sum turn-based games
- Title(参考訳): ゼロサムターンベースゲームとしてのReluとSoftplusニューラルネット
- Authors: Stephane Gaubert, Yiannis Vlassopoulos,
- Abstract要約: 本稿では,ReLUニューラルネットワークの出力をゼロサム,ターンベース,ストップゲームの値と解釈できることを示す。
ネットワークの入力はゲームの最終報酬となる。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that the output of a ReLU neural network can be interpreted as the value of a zero-sum, turn-based, stopping game, which we call the ReLU net game. The game runs in the direction opposite to that of the network, and the input of the network serves as the terminal reward of the game. In fact, evaluating the network is the same as running the Shapley-Bellman backward recursion for the value of the game. Using the expression of the value of the game as an expected total payoff with respect to the path measure induced by the transition probabilities and a pair of optimal policies, we derive a discrete Feynman-Kac-type path-integral formula for the network output. This game-theoretic representation can be used to derive bounds on the output from bounds on the input, leveraging the monotonicity of Shapley operators, and to verify robustness properties using policies as certificates. Moreover, training the neural network becomes an inverse game problem: given pairs of terminal rewards and corresponding values, one seeks transition probabilities and rewards of a game that reproduces them. Finally, we show that a similar approach applies to neural networks with Softplus activation functions, where the ReLU net game is replaced by its entropic regularization.
- Abstract(参考訳): 本稿では、ReLUニューラルネットワークの出力を、ReLUネットゲームと呼ばれるゼロサム、ターンベース、ストップゲームの値と解釈できることを示す。
ゲームはネットワークの反対方向に走り、ネットワークの入力はゲームの終端報酬として機能する。
実際、ネットワークの評価は、ゲームの価値に対するShapley-Bellmanの後方再帰の実行と同じである。
遷移確率によって誘導されるパス測度と最適ポリシーのペアに対して,ゲームの価値を期待された総支払量として表現することにより,ネットワーク出力に対する個別のFeynman-Kac型パス積分式を導出する。
このゲーム理論の表現は、入力上のバウンダリから出力のバウンダリを導出し、シェープリー作用素の単調性を活用し、ポリシーを証明書として使用したロバストネス特性の検証に使うことができる。
さらに、ニューラルネットワークのトレーニングは逆ゲーム問題となり、端末の報酬と対応する値のペアが与えられた場合、それらを再現するゲームの遷移確率と報酬を求める。
最後に,ReLUネットゲームがエントロピー正規化に置き換えられるような,ソフトプラスアクティベーション機能を持つニューラルネットワークにも同様のアプローチが適用されることを示す。
関連論文リスト
- Random Weights Networks Work as Loss Prior Constraint for Image
Restoration [50.80507007507757]
「画像復元の優先制約としてランダムウェイトネットワークを機能させることができる」という信念を提示する。」
我々の信念は、計算コストのトレーニングやテストなしに、既存のネットワークに直接挿入することができる。
強調しておきたいのは、損失関数の領域を刺激し、現在無視されている状態を保存することです。
論文 参考訳(メタデータ) (2023-03-29T03:43:51Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Dual Lottery Ticket Hypothesis [71.95937879869334]
Lottery Ticket hypothesis (LTH)は、スパースネットワークトレーニングを調査し、その能力を維持するための新しい視点を提供する。
本稿では,LTHの当選チケットをトレーニング可能なサブネットワークとして,その性能をベンチマークとして検討する。
本稿では,簡単なスパースネットワークトレーニング戦略であるランダムスパースネットワークトランスフォーメーション(RST)を提案し,DLTHを裏付ける。
論文 参考訳(メタデータ) (2022-03-08T18:06:26Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - EE-Net: Exploitation-Exploration Neural Networks in Contextual Bandits [52.98326168071513]
EE-Netは、新しい探索戦略を持つニューラルネットワークベースのバンドイットアプローチである。
EE-Net が $mathcalO(sqrtTlog T)$ regret を達成することを示す。
論文 参考訳(メタデータ) (2021-10-07T04:12:36Z) - Visibility Optimization for Surveillance-Evasion Games [4.454557728745761]
監視回避差分ゲームでは,追跡者が常に移動中の回避者の視認性を維持する必要がある。
本研究では,ゲーム終了時間に対応するフィードバック値関数をアップウインド方式で計算する。
モンテカルロ木探索と自己再生強化学習が深層ニューラルネットワークをトレーニングし,オンラインゲームプレイのための合理的な戦略を生成することを示す。
論文 参考訳(メタデータ) (2020-10-18T15:02:41Z) - Finite Group Equivariant Neural Networks for Games [0.0]
既存の作業におけるグループ同変CNNは、対称性を利用して学習を改善するネットワークを作成する。
そこで我々はFinite Group Neural Networks (FGNNs)を紹介した。
FGNNは、チェッカー(ドロート)をプレイするネットワークの性能を向上させることが示され、他のゲームや学習問題に容易に適応できる。
論文 参考訳(メタデータ) (2020-09-10T17:46:09Z) - A game-theoretic approach for Generative Adversarial Networks [2.995087247817663]
GAN(Generative Adversarial Network)は、生成モデルの一種で、正確なサンプルを作成することで知られている。
彼らの実装の主なボトルネックは、ニューラルネットワークのトレーニングが非常に難しいことだ。
本稿では,GANに対する緩和されたフォワードバックワードアルゴリズムを提案する。
ゲームの擬階写像が単調であるとき、正確な解やその近傍に収束することが証明される。
論文 参考訳(メタデータ) (2020-03-30T17:14:41Z) - Over-parameterized Adversarial Training: An Analysis Overcoming the
Curse of Dimensionality [74.0084803220897]
逆行訓練は、逆行性摂動に対する神経網の堅牢性を与える一般的な方法である。
自然仮定とReLUアクティベーションの下で, 指数的ではなく, 低ロバストトレーニング損失に対する収束性を示す。
論文 参考訳(メタデータ) (2020-02-16T20:13:43Z) - How Implicit Regularization of ReLU Neural Networks Characterizes the
Learned Function -- Part I: the 1-D Case of Two Layers with Random First
Layer [5.969858080492586]
重みをランダムに選択し、終端層のみをトレーニングする1次元(浅)ReLUニューラルネットワークを考える。
そのようなネットワークにおいて、L2-正則化回帰は関数空間において、かなり一般の損失汎関数に対する推定の第2微分を正則化するために対応することを示す。
論文 参考訳(メタデータ) (2019-11-07T13:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。