論文の概要: Hadamax Encoding: Elevating Performance in Model-Free Atari
- arxiv url: http://arxiv.org/abs/2505.15345v1
- Date: Wed, 21 May 2025 10:19:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.503829
- Title: Hadamax Encoding: Elevating Performance in Model-Free Atari
- Title(参考訳): Hadamaxエンコーディング:モデルフリーのAtariのパフォーマンス向上
- Authors: Jacob E. Kooi, Zhao Yang, Vincent François-Lavet,
- Abstract要約: 本研究では,画素ベースモデルフリー強化学習のための新しいエンコーダアーキテクチャを提案する。
Hadamaxエンコーダは、GELUによって活性化された並列隠蔽層間でHadamard製品を最大プールすることで、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 5.957208483526985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network architectures have a large impact in machine learning. In reinforcement learning, network architectures have remained notably simple, as changes often lead to small gains in performance. This work introduces a novel encoder architecture for pixel-based model-free reinforcement learning. The Hadamax (\textbf{Hada}mard \textbf{max}-pooling) encoder achieves state-of-the-art performance by max-pooling Hadamard products between GELU-activated parallel hidden layers. Based on the recent PQN algorithm, the Hadamax encoder achieves state-of-the-art model-free performance in the Atari-57 benchmark. Specifically, without applying any algorithmic hyperparameter modifications, Hadamax-PQN achieves an 80\% performance gain over vanilla PQN and significantly surpasses Rainbow-DQN. For reproducibility, the full code is available on \href{https://github.com/Jacobkooi/Hadamax}{GitHub}.
- Abstract(参考訳): ニューラルネットワークアーキテクチャは、機械学習に大きな影響を与える。
強化学習では、ネットワークアーキテクチャは明らかにシンプルであり、変更によってパフォーマンスが小さめに向上することが多い。
本研究では,画素ベースモデルフリー強化学習のための新しいエンコーダアーキテクチャを提案する。
Hadamax(\textbf{Hada}mard \textbf{max}-pooling)エンコーダは、GELUによって活性化された並列隠蔽層間でHadamard製品を最大プールすることで最先端のパフォーマンスを達成する。
最近のPQNアルゴリズムに基づいて、HadamaxエンコーダはAtari-57ベンチマークで最先端のモデルフリーのパフォーマンスを達成する。
具体的には、アルゴリズムによるハイパーパラメータ修正を適用することなく、Hadamax-PQNはバニラPQNよりも80%向上し、Rainbow-DQNを大幅に上回る。
再現性のために、完全なコードは \href{https://github.com/Jacobkooi/Hadamax}{GitHub} で入手できる。
関連論文リスト
- Accelerating Machine Learning Systems via Category Theory: Applications to Spherical Attention for Gene Regulatory Networks [0.0]
ニューラルネットワーク図を用いて、ディープラーニングアルゴリズムに関する一般的な定理を証明します。
我々は,遺伝子制御ネットワークの領域に係わる新しい注意アルゴリズムの開発を指導する。
我々のカーネルは、最先端の細調整されたFlashAttentionアルゴリズムに匹敵する性能を実現している。
論文 参考訳(メタデータ) (2025-05-14T12:24:22Z) - QuantCache: Adaptive Importance-Guided Quantization with Hierarchical Latent and Layer Caching for Video Generation [84.91431271257437]
Diffusion Transformers (DiTs) はビデオ生成において支配的なアーキテクチャとして登場した。
DiTには、計算コストやメモリコストの増大など、大きな欠点がある。
我々は,新しいトレーニングフリー推論アクセラレーションフレームワークQuantCacheを提案する。
論文 参考訳(メタデータ) (2025-03-09T10:31:51Z) - Streaming Looking Ahead with Token-level Self-reward [50.699168440048716]
本稿では,トークンレベルの自己回帰モデリング(TRM)機能を備えたポリシーモデルを提案する。
さらに,検索効率を向上し,並列化を向上するストリーミング・ルック・アヘッド (SLA) アルゴリズムを提案する。
SLAとDPOなどの強化微調整技術を組み合わせると、全体の勝利率は89.4%となる。
論文 参考訳(メタデータ) (2025-02-24T22:35:53Z) - Resource Constrained Model Compression via Minimax Optimization for
Spiking Neural Networks [11.19282454437627]
スパイキングニューラルネットワーク(SNN)は、イベント駆動型および高エネルギー効率ネットワークの特徴を持つ。
これらのネットワークをリソース制限されたエッジデバイスに直接展開することは困難である。
本稿では,このスパース学習問題に対するエンドツーエンドの Minimax 最適化手法を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:50:15Z) - Improving Dual-Encoder Training through Dynamic Indexes for Negative
Mining [61.09807522366773]
本稿では,ソフトマックスを証明可能な境界で近似し,木を動的に維持するアルゴリズムを提案する。
我々は,2000万以上のターゲットを持つデータセットについて検討し,オラクル・ブルート力負の鉱業に関して,誤差を半分に削減した。
論文 参考訳(メタデータ) (2023-03-27T15:18:32Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - HyperSeg: Patch-wise Hypernetwork for Real-time Semantic Segmentation [95.47168925127089]
本稿では,エンコーダがデコーダのパラメータ(重み)をエンコードして生成する,新しいリアルタイムセマンティックセグメンテーションネットワークを提案する。
我々は、より高レベルなコンテキスト特徴を描画するためのネストされたU-Netからなる新しいタイプのハイパーネットワークを設計する。
論文 参考訳(メタデータ) (2020-12-21T18:58:18Z) - NVAE: A Deep Hierarchical Variational Autoencoder [102.29977384039805]
本稿では,深度ワイド分離可能な畳み込みとバッチ正規化を用いた画像生成のための階層型VAEを提案する。
NVAEは非自己回帰的確率ベースモデルにおいて最先端の結果が得られることを示す。
我々の知る限りでは、NVAEは256$times $256ピクセルの自然画像に適用された最初のVAEである。
論文 参考訳(メタデータ) (2020-07-08T04:56:56Z) - MaxUp: A Simple Way to Improve Generalization of Neural Network Training [41.89570630848936]
emphMaxUpは、機械学習モデルの一般化性能を改善するための、恥ずかしいほどシンプルで、非常に効果的なテクニックである。
特に、ImageNetの分類を最先端のトップ-1の精度で85.5%$、追加データなしでは85.8%$に改善します。
論文 参考訳(メタデータ) (2020-02-20T21:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。