論文の概要: On the Interplay Between Sparsity and Training in Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2501.16729v2
- Date: Sat, 01 Feb 2025 06:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 12:43:33.146868
- Title: On the Interplay Between Sparsity and Training in Deep Reinforcement Learning
- Title(参考訳): 深層強化学習におけるスパシティとトレーニングの相互作用について
- Authors: Fatima Davelouis, John D. Martin, Michael Bowling,
- Abstract要約: スパース構造が学習性能に有意な影響を及ぼすことを示す。
与えられたドメインに対して最高のスパースアーキテクチャを選択することは、隠されたレイヤの重みが固定されているか学習されているかに依存する。
- 参考スコア(独自算出の注目度): 9.343036005912584
- License:
- Abstract: We study the benefits of different sparse architectures for deep reinforcement learning. In particular, we focus on image-based domains where spatially-biased and fully-connected architectures are common. Using these and several other architectures of equal capacity, we show that sparse structure has a significant effect on learning performance. We also observe that choosing the best sparse architecture for a given domain depends on whether the hidden layer weights are fixed or learned.
- Abstract(参考訳): 深層強化学習のための異なるスパースアーキテクチャの利点について検討する。
特に,空間バイアスと完全連結アーキテクチャが一般的である画像ベース領域に着目した。
これらと同等容量のアーキテクチャを用いて、スパース構造が学習性能に重大な影響を与えることを示す。
また、与えられたドメインに対して最高のスパースアーキテクチャを選択することは、隠されたレイヤの重みが固定されているか学習されているかに依存することも観察します。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [20.209756662832365]
微分可能なニューラルアーキテクチャサーチ(DARTS)は、高い探索効率でアーキテクチャ設計のマニュアルプロセスを自動化する。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
EM-DARTSは、最先端の認識性能につながる最適なアーキテクチャを実現できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - FedHeN: Federated Learning in Heterogeneous Networks [52.29110497518558]
ヘテロジニアスネットワークを用いたフェデレーション学習のための新しい学習レシピを提案する。
我々は,高次複雑度デバイスを対象とするトレーニングを導入し,連携した環境で異なるアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2022-07-07T01:08:35Z) - Learning the Space of Deep Models [12.785442275745973]
訓練された深層モデルの固定サイズ低次元埋め込み空間を,表現学習を用いて学習する方法を示す。
信号のイメージ分類とニューラル表現に対処し、我々の埋め込み空間をどのように学習し、性能と3次元形状の概念を捉えるかを示す。
論文 参考訳(メタデータ) (2022-06-10T15:53:35Z) - Architecture Matters in Continual Learning [43.36462900350999]
アーキテクチャの選択が継続的な学習性能に大きな影響を及ぼすことを示す。
本研究は,継続的な学習性能を向上させるためのベストプラクティスと勧告を提示する。
論文 参考訳(メタデータ) (2022-02-01T08:32:22Z) - Pretraining Neural Architecture Search Controllers with Locality-based
Self-Supervised Learning [0.0]
コントローラベースのNASに適用可能なプリトレーニング方式を提案する。
本手法は局所性に基づく自己教師付き分類タスクであり,ネットワークアーキテクチャの構造的類似性を活用し,優れたアーキテクチャ表現を得る。
論文 参考訳(メタデータ) (2021-03-15T06:30:36Z) - D2RL: Deep Dense Architectures in Reinforcement Learning [47.67475810050311]
コンピュータビジョンと生成モデルにおけるアーキテクチャ選択の成功からインスピレーションを得ます。
各種ロボット学習ベンチマーク環境における強化学習における深層ネットワークと高密度接続の利用について検討した。
論文 参考訳(メタデータ) (2020-10-19T01:27:07Z) - Understanding Deep Architectures with Reasoning Layer [60.90906477693774]
本研究では,アルゴリズムの収束,安定性,感度といった特性が,エンドツーエンドモデルの近似と一般化能力と密接に関連していることを示す。
私たちの理論は、深いアーキテクチャを推論層で設計するための有用なガイドラインを提供することができます。
論文 参考訳(メタデータ) (2020-06-24T00:26:35Z) - Does Unsupervised Architecture Representation Learning Help Neural
Architecture Search? [22.63641173256389]
既存のニューラルアーキテクチャサーチ(NAS)手法は、スケールが良くない離散符号化を用いてニューラルアーキテクチャをエンコードするか、アーキテクチャ表現を共同で学習し、探索バイアスを引き起こすような表現上でアーキテクチャ探索を最適化するための教師付き学習ベースの手法を採用する。
アーキテクチャ表現学習と探索が組み合わさっていれば,ニューラルネットワークの構造的特性を潜時空間に保持することは困難であり,その結果,探索性能は低下する。
論文 参考訳(メタデータ) (2020-06-12T04:15:34Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。