論文の概要: Optimize Neural Fictitious Self-Play in Regret Minimization Thinking
- arxiv url: http://arxiv.org/abs/2104.10845v1
- Date: Thu, 22 Apr 2021 03:24:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 22:18:17.509269
- Title: Optimize Neural Fictitious Self-Play in Regret Minimization Thinking
- Title(参考訳): レグレット最小化思考におけるニューラルフィクションセルフプレイの最適化
- Authors: Yuxuan Chen, Li Zhang, Shijian Li, Gang Pan
- Abstract要約: 本論文では,ニューラル・フィクティティヴ・セルフプレイの最適応答計算を後悔マッチング法に置き換える手法を提案する。
新しいアルゴリズムは、最適度ギャップを反復するにつれてゼロに収束させ、元のNFSPよりも速く収束させることができる。
我々はOpenSpielで完全情報ゲームと不完全情報ゲームという3つの典型的な環境で実験を行っている。
- 参考スコア(独自算出の注目度): 18.388908860224465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimization of deep learning algorithms to approach Nash Equilibrium remains
a significant problem in imperfect information games, e.g. StarCraft and poker.
Neural Fictitious Self-Play (NFSP) has provided an effective way to learn
approximate Nash Equilibrium without prior domain knowledge in imperfect
information games. However, optimality gap was left as an optimization problem
of NFSP and by solving the problem, the performance of NFSP could be improved.
In this study, focusing on the optimality gap of NFSP, we have proposed a new
method replacing NFSP's best response computation with regret matching method.
The new algorithm can make the optimality gap converge to zero as it iterates,
thus converge faster than original NFSP. We have conduct experiments on three
typical environments of perfect-information games and imperfect information
games in OpenSpiel and all showed that our new algorithm performances better
than original NFSP.
- Abstract(参考訳): Nash Equilibriumにアプローチするためのディープラーニングアルゴリズムの最適化は、不完全な情報ゲームにおいて重要な問題である。
スタークラフトとポーカー。
neural fictitious self-play (nfsp) は、不完全な情報ゲームにおいて、事前のドメイン知識なしでナッシュ均衡の近似を学ぶ効果的な方法を提供している。
しかし,NFSPの最適化問題として最適性ギャップが残され,その解決によりNFSPの性能が向上した。
本研究では,NFSPの最適性ギャップに着目し,NFSPの最適応答計算を後悔マッチングに置き換える手法を提案する。
新しいアルゴリズムは、最適性ギャップを反復するとゼロに収束させ、元のNFSPよりも早く収束させることができる。
我々はOpenSpielで完全情報ゲームと不完全情報ゲームの3つの典型的な環境で実験を行い、新しいアルゴリズムの性能が元のNFSPよりも優れていることを示した。
関連論文リスト
- Fast Training of Sinusoidal Neural Fields via Scaling Initialization [16.912112402718584]
sinusoidal Neural Field (SNFs) という,ニューラルネットワークの一般的なファミリーに焦点をあてる。
それぞれの重みを定数で乗算することで、SNFトレーニングを10$times$で加速できることを示す。
論文 参考訳(メタデータ) (2024-10-07T06:38:43Z) - FedNAR: Federated Optimization with Normalized Annealing Regularization [54.42032094044368]
ウェイト崩壊の選択を探索し、ウェイト崩壊値が既存のFLアルゴリズムの収束に有意な影響を及ぼすことを確かめる。
我々は,既存のFLアルゴリズムにシームレスに統合可能なプラグインであるFederated Optimization with Normalized Annealing Regularization (FedNAR)を開発した。
論文 参考訳(メタデータ) (2023-10-04T21:11:40Z) - Neural Algorithmic Reasoning for Combinatorial Optimisation [20.36694807847833]
ニューラル推論の最近の進歩を活用して,CO問題の学習を改善することを提案する。
私たちは、COインスタンスでトレーニングする前に、関連するアルゴリズムでニューラルネットワークを事前トレーニングすることを提案します。
以上の結果から,この学習装置を用いることで,非アルゴリズム的情報深層学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-18T13:59:02Z) - Federated Compositional Deep AUC Maximization [58.25078060952361]
本研究では,曲線(AUC)のスコアを直接最適化することにより,不均衡なデータに対する新しいフェデレート学習法を開発した。
私たちの知る限りでは、このような好ましい理論的な結果を達成した最初の作品である。
論文 参考訳(メタデータ) (2023-04-20T05:49:41Z) - Optimization-Informed Neural Networks [0.6853165736531939]
制約付き非線形最適化問題を解くために最適化インフォームドニューラルネットワーク(OINN)を提案する。
簡単に言うと、OINNはCNLPをニューラルネットワークトレーニング問題に変換する。
提案手法の有効性は古典的な問題の収集を通じて実証される。
論文 参考訳(メタデータ) (2022-10-05T09:28:55Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - Persistent Neurons [4.061135251278187]
本稿では,学習課題を最適化するトラジェクトリベースの戦略を提案する。
永続ニューロンは、決定論的誤差項によって個々の更新が破損する勾配情報バイアスを持つ方法とみなすことができる。
完全かつ部分的なパーシステンスモデルの評価を行い、NN構造における性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-07-02T22:36:49Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。