論文の概要: RNM-TD3: N:M Semi-structured Sparse Reinforcement Learning From Scratch
- arxiv url: http://arxiv.org/abs/2602.14578v1
- Date: Mon, 16 Feb 2026 09:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.34764
- Title: RNM-TD3: N:M Semi-structured Sparse Reinforcement Learning From Scratch
- Title(参考訳): RNM-TD3:N:M半構造化スパース強化学習
- Authors: Isam Vrce, Andreas Kassler, Gökçe Aydos,
- Abstract要約: 深層強化学習(DRL)では、元の重量の最大5%のニューラルネットワークは、高密度のニューラルネットワークに比べてパフォーマンス損失が最小限に抑えられる。
既存の手法の多くは、不規則な計算パターンによるハードウェアアクセラレーションの機会を制限する、非構造化の粒度空間に依存している。
我々は, 圧縮, 性能, ハードウェア効率のバランスをとるRLにおけるN:M構造的疎結合に関する最初の研究である。
- 参考スコア(独自算出の注目度): 0.5097809301149342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparsity is a well-studied technique for compressing deep neural networks (DNNs) without compromising performance. In deep reinforcement learning (DRL), neural networks with up to 5% of their original weights can still be trained with minimal performance loss compared to their dense counterparts. However, most existing methods rely on unstructured fine-grained sparsity, which limits hardware acceleration opportunities due to irregular computation patterns. Structured coarse-grained sparsity enables hardware acceleration, yet typically degrades performance and increases pruning complexity. In this work, we present, to the best of our knowledge, the first study on N:M structured sparsity in RL, which balances compression, performance, and hardware efficiency. Our framework enforces row-wise N:M sparsity throughout training for all networks in off-policy RL (TD3), maintaining compatibility with accelerators that support N:M sparse matrix operations. Experiments on continuous-control benchmarks show that RNM-TD3, our N:M sparse agent, outperforms its dense counterpart at 50%-75% sparsity (e.g., 2:4 and 1:4), achieving up to a 14% increase in performance at 2:4 sparsity on the Ant environment. RNM-TD3 remains competitive even at 87.5% sparsity (1:8), while enabling potential training speedups.
- Abstract(参考訳): Sparsityは、パフォーマンスを損なうことなくディープニューラルネットワーク(DNN)を圧縮するための、よく研究されたテクニックである。
深層強化学習(DRL)では、元の重量の最大5%のニューラルネットワークは、高密度のニューラルネットワークに比べてパフォーマンス損失が最小限に抑えられる。
しかし、既存のほとんどの手法は、不規則な計算パターンによるハードウェアアクセラレーションの機会を制限する非構造化の粒度空間に依存している。
構造化された粗い粒度はハードウェアアクセラレーションを可能にするが、通常は性能を低下させ、プルーニングの複雑さを増大させる。
本研究は, 圧縮, 性能, ハードウェア効率のバランスをとるRLにおけるN:M構造的疎結合に関する最初の研究である。
我々のフレームワークは、N:Mスパースマトリクス操作をサポートするアクセラレータとの互換性を維持しながら、オフポリティRL(TD3)の全ネットワークのトレーニングを通して行ワイズN:Mスペーサを強制する。
連続制御ベンチマークの実験では、我々のN:MスパースエージェントであるRNM-TD3が50%-75%スパシティ(例:2:4と1:4)で高い性能を示し、Ant環境では2:4スパシティでパフォーマンスが14%向上した。
RNM-TD3は87.5%の間隔(1:8)でも競争力を維持しながら、潜在的なトレーニングスピードアップを可能にしている。
関連論文リスト
- Enhanced Self-Distillation Framework for Efficient Spiking Neural Network Training [9.838333491904406]
Spiking Neural Networks (SNN) は、ニューロモルフィックハードウェア上でのエネルギー効率を示す。
本稿では, 自己蒸留フレームワークを改良し, レートベースバックプロパゲーションを併用する手法を提案する。
提案手法は,高性能SNNトレーニングを行ないながら,トレーニングの複雑さを低減する。
論文 参考訳(メタデータ) (2025-10-04T12:58:55Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Dynamic Sparsity Is Channel-Level Sparsity Learner [91.31071026340746]
ダイナミックスパーストレーニング(Dynamic Sparse Training, DST)は、ススパーストレーニングの指導的アプローチである。
チャネル対応動的スパース(Chase)は、非構造的動的スパースをチャネルレベルのスパースにシームレスに変換する。
提案手法は,非構造的空間性からチャネルワイド空間性へ変換する。
論文 参考訳(メタデータ) (2023-05-30T23:33:45Z) - Dynamic Sparse Training with Structured Sparsity [11.778353786208765]
ダイナミックスパーストレーニング(DST)法は、スパースニューラルネットワークトレーニングにおいて最先端の結果を達成する。
本研究では, 微細構造N:M空間の変形を学習するために, スパース・ツー・スパースDST法, Structured RigL (SRigL)を提案する。
オンライン推論用CPUでは3.4x/2.5x、GPUでは1.7x/13.0x、バッチサイズは256である。
論文 参考訳(メタデータ) (2023-05-03T17:48:55Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and Spatially for Efficient DNN Training [62.932299614630985]
本稿では, アクティベーション, ウェイト, 勾配の精度を徐々に向上させる, プログレッシブ分数量子化を統合したFracTrainを提案する。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - Dynamic Hard Pruning of Neural Networks at the Edge of the Internet [11.605253906375424]
動的ハードプルーニング(DynHP)技術は、トレーニング中にネットワークを段階的にプルーニングする。
DynHPは、最終ニューラルネットワークの調整可能なサイズ削減と、トレーニング中のNNメモリ占有率の削減を可能にする。
凍結メモリは、ハードプルーニング戦略による精度劣化を相殺するために、エンファンダイナミックバッチサイズアプローチによって再利用される。
論文 参考訳(メタデータ) (2020-11-17T10:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。