論文の概要: Ordering Chaos: Memory-Aware Scheduling of Irregularly Wired Neural
Networks for Edge Devices
- arxiv url: http://arxiv.org/abs/2003.02369v1
- Date: Wed, 4 Mar 2020 23:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:49:37.846609
- Title: Ordering Chaos: Memory-Aware Scheduling of Irregularly Wired Neural
Networks for Edge Devices
- Title(参考訳): 順序カオス:エッジデバイス用不規則配線ニューラルネットワークのメモリアウェアスケジューリング
- Authors: Byung Hoon Ahn, Jinwon Lee, Jamie Menjay Lin, Hsin-Pai Cheng, Jilei
Hou, Hadi Esmaeilzadeh
- Abstract要約: 我々は、SERENITYと呼ばれるメモリ認識コンパイラを提案し、最適なメモリフットプリントでスケジュールを見つけるシーケンスを見つける。
私たちのソリューションは、最適値を超えたさらなる削減を可能にするグラフ書き換え技術も備えています。
- 参考スコア(独自算出の注目度): 10.876317610988059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances demonstrate that irregularly wired neural networks from
Neural Architecture Search (NAS) and Random Wiring can not only automate the
design of deep neural networks but also emit models that outperform previous
manual designs. These designs are especially effective while designing neural
architectures under hard resource constraints (memory, MACs, . . . ) which
highlights the importance of this class of designing neural networks. However,
such a move creates complication in the previously streamlined pattern of
execution. In fact one of the main challenges is that the order of such nodes
in the neural network significantly effects the memory footprint of the
intermediate activations. Current compilers do not schedule with regard to
activation memory footprint that it significantly increases its peak compared
to the optimum, rendering it not applicable for edge devices. To address this
standing issue, we present a memory-aware compiler, dubbed SERENITY, that
utilizes dynamic programming to find a sequence that finds a schedule with
optimal memory footprint. Our solution also comprises of graph rewriting
technique that allows further reduction beyond the optimum. As such, SERENITY
achieves optimal peak memory, and the graph rewriting technique further
improves this resulting in 1.68x improvement with dynamic programming-based
scheduler and 1.86x with graph rewriting, against TensorFlow Lite with less
than one minute overhead.
- Abstract(参考訳): 最近の進歩は、ニューラルネットワーク検索(nas)とランダム配線による不規則に配線されたニューラルネットワークは、ディープニューラルネットワークの設計を自動化できるだけでなく、従来の手動設計を上回るモデルも生成できることを実証している。
これらの設計は、このタイプのニューラルネットワークの設計の重要性を強調する、ハードリソース制約(メモリ、MACなど)下でのニューラルネットワークの設計において、特に効果的である。
しかし、このような動きは、以前合理化された実行パターンの複雑さを引き起こす。
実際、大きな課題の1つは、ニューラルネットワーク内のそのようなノードの順序が中間活性化のメモリフットプリントに大きな影響を及ぼすことである。
現在のコンパイラは、アクティベーションメモリのフットプリントに関してスケジュールせず、そのピークが最適なものに比べて大幅に増加するため、エッジデバイスには適用できない。
そこで本研究では,SERENITYと呼ばれる動的プログラミングを用いて,メモリフットプリントを最適化したシーケンスを探索するメモリ認識コンパイラを提案する。
このソリューションはグラフ書き換え技術も備えており、最適以上の削減が可能です。
これにより、セレンティリティは最適なピークメモリを達成し、グラフ書き換え技術は、動的プログラミングベースのスケジューラで1.68倍、グラフ書き換えで1.86倍、オーバーヘッド1分未満でtensorflow liteに対してさらに改善される。
関連論文リスト
- Memory-aware Scheduling for Complex Wired Networks with Iterative Graph
Optimization [4.614780125575351]
本稿では,反復グラフ最適化に基づく効率的なメモリ認識スケジューリングフレームワークを提案する。
我々のフレームワークは、スケジューリングの最適性を保ちながらグラフを単純化する反復グラフ融合アルゴリズムを備えている。
論文 参考訳(メタデータ) (2023-08-26T14:52:02Z) - Towards Zero Memory Footprint Spiking Neural Network Training [7.4331790419913455]
スパイキングニューラルネットワーク(SNN)は、連続値ではなくスパイクと呼ばれる離散時間イベントを使用して情報を処理する。
本稿では,メモリフットプリントが著しく低いことを特徴とする,革新的なフレームワークを提案する。
我々の設計では、現在のSNNノードと比較してメモリ使用量の削減を$mathbf58.65times$で達成できる。
論文 参考訳(メタデータ) (2023-08-16T19:49:24Z) - MF-NeRF: Memory Efficient NeRF with Mixed-Feature Hash Table [62.164549651134465]
MF-NeRFは,Mixed-Featureハッシュテーブルを用いてメモリ効率を向上し,再構成品質を維持しながらトレーニング時間を短縮するメモリ効率の高いNeRFフレームワークである。
最新技術であるInstant-NGP、TensoRF、DVGOによる実験は、MF-NeRFが同じGPUハードウェア上で、同様のあるいはそれ以上のリコンストラクション品質で最速のトレーニング時間を達成できることを示唆している。
論文 参考訳(メタデータ) (2023-04-25T05:44:50Z) - OLLA: Decreasing the Memory Usage of Neural Networks by Optimizing the
Lifetime and Location of Arrays [6.418232942455968]
OLLAは、ニューラルネットワークのトレーニングに使用されるテンソルの寿命とメモリ位置を最適化するアルゴリズムである。
問題のエンコーディングを単純化し、最先端のニューラルネットワークのサイズにスケールするためのアプローチを可能にするために、いくつかの手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T02:39:13Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Instant Neural Graphics Primitives with a Multiresolution Hash Encoding [67.33850633281803]
品質を犠牲にすることなく、より小さなネットワークを使用できる汎用的な新しい入力符号化を提案する。
小さなニューラルネットワークは、勾配降下によって値が最適化された訓練可能な特徴ベクトルの多分解能ハッシュテーブルによって拡張される。
数桁の高速化を実現し、高品質なニューラルネットワークプリミティブを数秒でトレーニングすることができる。
論文 参考訳(メタデータ) (2022-01-16T07:22:47Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。