論文の概要: RLFlow: Optimising Neural Network Subgraph Transformation with World
Models
- arxiv url: http://arxiv.org/abs/2205.01435v1
- Date: Tue, 3 May 2022 11:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 19:09:13.363811
- Title: RLFlow: Optimising Neural Network Subgraph Transformation with World
Models
- Title(参考訳): RLFlow: 世界モデルによるニューラルネットワークサブグラフ変換の最適化
- Authors: Sean Parker, Sami Alabed and Eiko Yoneki
- Abstract要約: 本稿では,ニューラルネットワークのアーキテクチャを最適化するためのモデルベースエージェントを提案する。
提案手法は, 共通の畳み込みネットワーク上での最先端技術の性能に適合し, トランスフォーマースタイルのアーキテクチャでは最大5%性能が向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explored the use of reinforcement learning (RL) agents that can learn to
perform neural network subgraph transformations, without the need of expertly
designed heuristics to achieve a high level of performance. Reducing compute
requirements of deep learning models is a focus of extensive research and many
systems, optimisations and just-in-time (JIT) compilers have been proposed to
decrease runtime.
Recent work has aimed to apply reinforcement learning to computer systems
with some success, especially using model-free RL techniques. Model-based
reinforcement learning methods have seen an increased focus in research as they
can be used to learn the transition dynamics of the environment; this can be
leveraged to train an agent using the hallucinogenic environment, thereby
increasing sample efficiency compared to model-free approaches. Furthermore,
when using a world model as a simulated environment, batch rollouts can occur
safely in parallel and, especially in systems environments, it overcomes the
latency impact of updating system environments that can take orders of
magnitude longer to perform an action compared to simple emulators for video
games.
We propose a design for a model-based agent which learns to optimise the
architecture of neural networks by performing a sequence of subgraph
transformations to reduce model runtime. We show our approach can match the
performance of state of the art on common convolutional networks and outperform
those by up to 5% on transformer-style architectures.
- Abstract(参考訳): 我々は、ニューラルネットワークのサブグラフ変換を学習できる強化学習(rl)エージェントの使用について、高いレベルのパフォーマンスを達成するために、専門的に設計されたヒューリスティックスを必要とせずに検討した。
ディープラーニングモデルの計算要求の削減は、広範な研究と多くのシステム、最適化、ジャスト・イン・タイム(JIT)コンパイラに焦点が当てられている。
最近の研究は強化学習をコンピュータシステムに適用することを目的としており、特にモデルフリーのrl技術を用いて成功している。
モデルに基づく強化学習法は、環境の遷移ダイナミクスを学ぶために使用できるため、研究の焦点が増えている。
さらに、ワールドモデルをシミュレーション環境として使用する場合、バッチロールアウトは安全に並列に発生し、特にシステム環境では、ビデオゲームの単純なエミュレータと比較して、アクションの実行に桁違いに時間がかかるシステム環境の更新による遅延の影響を克服する。
本稿では,モデル実行時間を削減するために,サブグラフ変換のシーケンスを実行することによってニューラルネットワークのアーキテクチャを最適化することを学ぶモデルベースエージェントの設計を提案する。
提案手法は, 共通の畳み込みネットワーク上での最先端技術の性能に適合し, トランスフォーマースタイルのアーキテクチャでは最大5%性能が向上することを示す。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Neuroevolution of Recurrent Architectures on Control Tasks [3.04585143845864]
並列に並列な進化的アルゴリズムを実装し、19のOpenAI Gym状態に基づく強化学習制御タスクで実験を行う。
動的エージェントは, パラメータの桁数を桁違いに減らしながら, 勾配に基づくエージェントの性能に適合するか, 上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-03T16:29:18Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Dynamically Grown Generative Adversarial Networks [111.43128389995341]
本稿では、ネットワークアーキテクチャとそのパラメータを自動化とともに最適化し、トレーニング中にGANを動的に成長させる手法を提案する。
本手法はアーキテクチャ探索手法を勾配に基づく訓練とインターリーブステップとして組み込んで,ジェネレータと識別器の最適アーキテクチャ成長戦略を定期的に探究する。
論文 参考訳(メタデータ) (2021-06-16T01:25:51Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - The Untapped Potential of Off-the-Shelf Convolutional Neural Networks [29.205446247063673]
ResNet-50のような既存の市販モデルは、ImageNet上で95%以上の精度を持つことを示す。
このレベルのパフォーマンスは現在、20倍以上のパラメータとはるかに複雑なトレーニング手順を持つモデルを上回る。
論文 参考訳(メタデータ) (2021-03-17T20:04:46Z) - DyNODE: Neural Ordinary Differential Equations for Dynamics Modeling in
Continuous Control [0.0]
本稿では,ニューラル常微分方程式の枠組みに制御を組み込むことにより,システムの基盤となる力学を捉える新しい手法を提案する。
以上の結果から,アクター批判強化学習アルゴリズムと組み合わせた単純なDyNODEアーキテクチャが,標準ニューラルネットワークより優れていることが示唆された。
論文 参考訳(メタデータ) (2020-09-09T12:56:58Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。