論文の概要: Unlocking the Potential of Deep Counterfactual Value Networks
- arxiv url: http://arxiv.org/abs/2007.10442v1
- Date: Mon, 20 Jul 2020 20:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:38:10.262438
- Title: Unlocking the Potential of Deep Counterfactual Value Networks
- Title(参考訳): ディープ・カウンターファクトラル・バリュー・ネットワークの可能性を解き放つ
- Authors: Ryan Zarick, Bryan Pellegrino, Noam Brown, Caleb Banister
- Abstract要約: 本稿では, 深い反事実的価値ネットワークの改善と, 反事実的後悔の最小化について紹介する。
これらの改善を組み合わせて、ポーカーのAI Supremusを作りました。
DeepStackの再実装は、強力なベンチマークエージェントであるSlumbotに対して真っ向から負ける一方で、Supremusは極めて大きなマージンでSlumbotを破ることに成功した。
- 参考スコア(独自算出の注目度): 11.935701187860639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep counterfactual value networks combined with continual resolving provide
a way to conduct depth-limited search in imperfect-information games. However,
since their introduction in the DeepStack poker AI, deep counterfactual value
networks have not seen widespread adoption. In this paper we introduce several
improvements to deep counterfactual value networks, as well as counterfactual
regret minimization, and analyze the effects of each change. We combined these
improvements to create the poker AI Supremus. We show that while a
reimplementation of DeepStack loses head-to-head against the strong benchmark
agent Slumbot, Supremus successfully beats Slumbot by an extremely large margin
and also achieves a lower exploitability than DeepStack against a local best
response. Together, these results show that with our key improvements, deep
counterfactual value networks can achieve state-of-the-art performance.
- Abstract(参考訳): ディープ・ファクトファクト・バリュー・ネットワークと連続解法を組み合わせることで、不完全情報ゲームにおいて深度制限探索を行うことができる。
しかし、DeepStackのポーカーAIの導入以来、ディープ・カウンターファクト・バリュー・ネットワークは広く採用されていない。
本稿では, 深い反事実的価値ネットワークの改善, および反事実的後悔の最小化について紹介し, 各変化の影響を解析する。
これらの改善を組み合わせて、ポーカーのAI Supremusを作りました。
我々は、deepstackの再実装は、強力なベンチマークエージェントであるslumbotに対して頭から頭へと負けるが、supremusは、slumbotを非常に大きなマージンで破ることに成功した。
これらの結果と合わせて,我々の重要な改善点として,ディープ・カウンターファクト・バリュー・ネットワークが最先端のパフォーマンスを達成できることが示されています。
関連論文リスト
- DeepBaR: Fault Backdoor Attack on Deep Neural Network Layers [0.0]
私たちは、ニューラルネットワークにバックドアを埋め込む新しいアプローチであるDeepBaRを紹介します。
私たちは3つの一般的な畳み込みニューラルネットワークアーキテクチャを攻撃し、DeepBaR攻撃が最大98.30%の成功率を示す。
論文 参考訳(メタデータ) (2024-07-30T22:14:47Z) - NEPENTHE: Entropy-Based Pruning as a Neural Network Depth's Reducer [5.373015313199385]
深層ニューラルネットワークの計算負担を軽減するため,nEural Network depTHのrEducerとしてeNtropy-basEdプルーニングを提案する。
我々はMobileNetやSwin-Tといった一般的なアーキテクチャに対するアプローチを検証する。
論文 参考訳(メタデータ) (2024-04-24T09:12:04Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - Improving Corruption and Adversarial Robustness by Enhancing Weak
Subnets [91.9346332103637]
本研究では,頑健性を向上させるために,トレーニング中の弱さを明確に識別し,強化する新しいロバストトレーニング手法を提案する。
具体的には、特に弱いものを見つけるための探索アルゴリズムを開発し、全ネットワークからの知識蒸留を通じてそれらを明示的に強化することを提案する。
EWSは、破損した画像に対するロバスト性を大幅に改善し、クリーンなデータの正確性も向上することを示す。
論文 参考訳(メタデータ) (2022-01-30T09:36:19Z) - Non-deep Networks [122.77755088736865]
我々は、高性能な「非深度」ニューラルネットワークを構築することができることを示す。
並列サブストラクチャを利用することで、深さが12のネットワークが80%以上のトップ1の精度を達成できることを示す。
我々は、低遅延認識システムを構築するために、非ディープネットワークをどのように使用できるかという概念の証明を提供する。
論文 参考訳(メタデータ) (2021-10-14T18:03:56Z) - Layer Folding: Neural Network Depth Reduction using Activation
Linearization [0.0]
現代のデバイスは高いレベルの並列性を示すが、リアルタイムレイテンシはネットワークの深さに大きく依存している。
線形でない活性化を除去できるかどうかを学習し、連続的な線形層を1つに折り畳む方法を提案する。
我々は, CIFAR-10 と CIFAR-100 で事前訓練されたネットワークに適用し, それら全てを同様の深さの浅い形に変換できることを示す。
論文 参考訳(メタデータ) (2021-06-17T08:22:46Z) - Implicit Under-Parameterization Inhibits Data-Efficient Deep
Reinforcement Learning [97.28695683236981]
さらなる勾配更新により、現在の値ネットワークの表現性が低下する。
AtariとGymのベンチマークでは、オフラインとオンラインのRL設定の両方でこの現象を実証する。
論文 参考訳(メタデータ) (2020-10-27T17:55:16Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Variational Depth Search in ResNets [2.6763498831034043]
ワンショットのニューラルアーキテクチャサーチにより、ウェイトとネットワークアーキテクチャの合同学習が可能になり、計算コストが削減される。
探索空間を残差ネットワークの深さに制限し、解析的に抽出可能な変分目的を定式化し、1ショットで近似された奥行きの奥行きの偏りを許容する。
MNIST, Fashion-MNIST, SVHNデータセットのネットワーク深度を手動で探索する手法の比較を行った。
論文 参考訳(メタデータ) (2020-02-06T16:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。