論文の概要: An Integrated Approach to Neural Architecture Search for Deep Q-Networks
- arxiv url: http://arxiv.org/abs/2510.19872v1
- Date: Wed, 22 Oct 2025 07:17:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.430048
- Title: An Integrated Approach to Neural Architecture Search for Deep Q-Networks
- Title(参考訳): 深部Q-Networksのためのニューラルネットワーク探索への統合的アプローチ
- Authors: Iman Rahmani, Saman Yazdannik, Morteza Tayefi, Jafar Roshanian,
- Abstract要約: NAS-DQNは、学習したニューラルネットワーク検索コントローラを直接DRLトレーニングループに統合するエージェントである。
我々はNAS-DQNを3つの固定構造ベースラインに対して評価し、連続的な制御タスクに対してランダムな探索制御を行う。
以上の結果から,NAS-DQNは非無視の計算オーバーヘッドを発生させながら,優れた最終性能,サンプル効率,政策安定性を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 1.516610503825416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of deep reinforcement learning agents is fundamentally constrained by their neural network architecture, a choice traditionally made through expensive hyperparameter searches and then fixed throughout training. This work investigates whether online, adaptive architecture optimization can escape this constraint and outperform static designs. We introduce NAS-DQN, an agent that integrates a learned neural architecture search controller directly into the DRL training loop, enabling dynamic network reconfiguration based on cumulative performance feedback. We evaluate NAS-DQN against three fixed-architecture baselines and a random search control on a continuous control task, conducting experiments over multiple random seeds. Our results demonstrate that NAS-DQN achieves superior final performance, sample efficiency, and policy stability while incurring negligible computational overhead. Critically, the learned search strategy substantially outperforms both undirected random architecture exploration and poorly-chosen fixed designs, indicating that intelligent, performance-guided search is the key mechanism driving success. These findings establish that architecture adaptation is not merely beneficial but necessary for optimal sample efficiency in online deep reinforcement learning, and suggest that the design of RL agents need not be a static offline choice but can instead be seamlessly integrated as a dynamic component of the learning process itself.
- Abstract(参考訳): ディープ強化学習エージェントのパフォーマンスは、ニューラルネットワークアーキテクチャによって基本的に制限されている。
本研究は、オンライン適応型アーキテクチャ最適化がこの制約を回避し、静的設計より優れているかどうかを考察する。
我々は、学習したニューラルネットワーク検索コントローラをDRLトレーニングループに直接統合するエージェントであるNAS-DQNを導入し、累積的な性能フィードバックに基づいて動的ネットワーク再構成を可能にする。
我々はNAS-DQNを3つの固定構造ベースラインに対して評価し、連続的な制御タスクに対してランダム検索制御を行い、複数のランダムシードに対して実験を行った。
以上の結果から,NAS-DQNは非無視の計算オーバーヘッドを発生させながら,優れた最終性能,サンプル効率,政策安定性を達成できることが示唆された。
重要な点として、学習された検索戦略は、無向ランダムなアーキテクチャ探索と不整合な固定設計の両方を著しく上回り、インテリジェントでパフォーマンスの高い検索が成功の鍵となるメカニズムであることを示唆している。
これらの結果から, オンライン深層学習において, アーキテクチャ適応は単に有用であるだけでなく, 最適なサンプル効率を実現するために必要であることが明らかとなり, RLエージェントの設計は静的なオフライン選択ではなく, 学習プロセス自体の動的コンポーネントとしてシームレスに統合できることが示唆された。
関連論文リスト
- Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - DANCE: Resource-Efficient Neural Architecture Search with Data-Aware and Continuous Adaptation [41.63918697375821]
DANCE(Dynamic Architectures with Neural Continuous Evolution)を提案する。
DANCEでは、スムーズな適応を可能にする継続的アーキテクチャ分布、効率的なサンプリングのための学習された選択ゲートを備えた統一アーキテクチャ空間、効率的なデプロイメント最適化のためのマルチステージトレーニング戦略の3つの重要なイノベーションを紹介している。
提案手法は,検索コストを大幅に削減しつつ,精度面で最先端のNAS手法より一貫して優れている。
論文 参考訳(メタデータ) (2025-07-07T05:22:55Z) - Auto-Compressing Networks [51.221103189527014]
本稿では,各層からの長いフィードフォワード接続が従来の短残コネクションに取って代わるアーキテクチャ変種であるAuto-compression Networks (ACNs)を紹介する。
本稿では,ACNが残差ネットワークと比較して高雑音を示すこと,低データ設定における優れた性能を示すこと,破滅的忘れを軽減できることを述べる。
これらの知見は、効率的な神経アーキテクチャを開発するための実践的なアプローチとしてACNを確立している。
論文 参考訳(メタデータ) (2025-06-11T13:26:09Z) - ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Robustifying and Boosting Training-Free Neural Architecture Search [49.828875134088904]
本稿では,多種多様なタスクにおいて,頑健で一貫したパフォーマンスの指標を開発するために,トレーニング不要なNAS (RoBoT) アルゴリズムを提案する。
注目すべきは、我々のRoBoTの期待性能が理論的に保証され、既存のトレーニングフリーNASよりも改善されることだ。
論文 参考訳(メタデータ) (2024-03-12T12:24:11Z) - Training-free Neural Architecture Search for RNNs and Transformers [0.0]
我々は、RNNアーキテクチャのトレーニング性能を予測する、隠れ共分散と呼ばれる新しいトレーニングフリーメトリックを開発した。
トランスフォーマーアーキテクチャの現在の検索空間パラダイムは、トレーニング不要なニューラルアーキテクチャサーチに最適化されていない。
論文 参考訳(メタデータ) (2023-06-01T02:06:13Z) - FreeREA: Training-Free Evolution-based Architecture Search [17.202375422110553]
FreeREAは、トレーニングなしメトリクスの最適化組み合わせを利用してアーキテクチャをランク付けする、独自のセルベースの進化NASアルゴリズムである。
本実験はNAS-Bench-101とNATS-Benchの共通ベンチマークを用いて,フリーレアがモデル自動設計のための高速で効率的かつ効果的な探索手法であることを実証した。
論文 参考訳(メタデータ) (2022-06-17T11:16:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。