論文の概要: An optimal scheduling architecture for accelerating batch algorithms on
Neural Network processor architectures
- arxiv url: http://arxiv.org/abs/2002.07062v1
- Date: Fri, 14 Feb 2020 17:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 05:16:14.356646
- Title: An optimal scheduling architecture for accelerating batch algorithms on
Neural Network processor architectures
- Title(参考訳): ニューラルネットワークプロセッサアーキテクチャを用いたバッチアルゴリズム高速化のための最適スケジューリングアーキテクチャ
- Authors: Phani Kumar Nyshadham, Mohit Sinha, Biswajit Mishra, H S Vijay
- Abstract要約: ニューラルネットワークトポロジでは、アルゴリズムはデータテンソルのバッチ上で動作する。
データバッチ上で動作するアルゴリズムには、最適なバッチスケジューリングアーキテクチャが必要です。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In neural network topologies, algorithms are running on batches of data
tensors. The batches of data are typically scheduled onto the computing cores
which execute in parallel. For the algorithms running on batches of data, an
optimal batch scheduling architecture is very much needed by suitably utilizing
hardware resources - thereby resulting in significant reduction training and
inference time. In this paper, we propose to accelerate the batch algorithms
for neural networks through a scheduling architecture enabling optimal compute
power utilization. The proposed optimal scheduling architecture can be built
into HW or can be implemented in SW alone which can be leveraged for
accelerating batch algorithms. The results demonstrate that the proposed
architecture speeds up the batch algorithms compared to the previous solutions.
The proposed idea applies to any HPC architecture meant for neural networks.
- Abstract(参考訳): ニューラルネットワークトポロジでは、アルゴリズムはデータテンソルのバッチ上で動作する。
データのバッチは通常、並列に実行されるコンピューティングコアにスケジュールされる。
データバッチ上で動作するアルゴリズムにとって、最適なバッチスケジューリングアーキテクチャは、ハードウェアリソースを適切に活用することで、非常に必要となる。
本稿では,最適な計算パワー利用を実現するスケジューリングアーキテクチャを用いて,ニューラルネットワークのバッチアルゴリズムを高速化する。
提案した最適スケジューリングアーキテクチャはHWに組み込むこともできるし、SWのみで実装することもできる。
その結果,提案したアーキテクチャは,従来のソリューションと比較してバッチアルゴリズムの高速化を図っている。
提案されたアイデアは、ニューラルネットワークのためのhpcアーキテクチャに適用される。
関連論文リスト
- HAPM -- Hardware Aware Pruning Method for CNN hardware accelerators in resource constrained devices [44.99833362998488]
本研究はFPGAデバイスに実装可能な汎用ハードウェアアーキテクチャを提案する。
設計の推論速度は、リソース制約の異なるFPGAデバイス上で評価される。
ハードウェア対応プルーニングアルゴリズムは,標準アルゴリズムを用いたネットワークプルーニングに比べて,推論時間45%の顕著な改善を実現していることを示す。
論文 参考訳(メタデータ) (2024-08-26T07:27:12Z) - RISC-V RVV efficiency for ANN algorithms [0.5892638927736115]
本研究では、一般的なANNアルゴリズムにRVVを適用することの有効性について検討する。
アルゴリズムはRISC-Vに適応し、主要なボトルネックを特定した後、RVVを使用して最適化された。
論文 参考訳(メタデータ) (2024-07-18T09:26:07Z) - Memory-aware Scheduling for Complex Wired Networks with Iterative Graph
Optimization [4.614780125575351]
本稿では,反復グラフ最適化に基づく効率的なメモリ認識スケジューリングフレームワークを提案する。
我々のフレームワークは、スケジューリングの最適性を保ちながらグラフを単純化する反復グラフ融合アルゴリズムを備えている。
論文 参考訳(メタデータ) (2023-08-26T14:52:02Z) - Learning representations by forward-propagating errors [0.0]
バックプロパゲーション(BP)はニューラルネットワーク最適化のための学習アルゴリズムとして広く使われている。
現在のニューラルネットワークオプティミザイトンは、計算統一デバイスアーキテクチャ(CUDA)プログラミングによるグラフィカル処理ユニット(GPU)で実行される。
本稿では,GPU上でのアクセラレーションと同じくらい高速な高速学習アルゴリズムをCPU上で提案する。
論文 参考訳(メタデータ) (2023-08-17T13:56:26Z) - RESPECT: Reinforcement Learning based Edge Scheduling on Pipelined Coral
Edge TPUs [12.952987240366781]
本研究は、最適化アルゴリズムの挙動を学習する強化学習(RL)に基づくスケジューリングフレームワークを提案する。
RLは、実行時のオーバーヘッドを短くすることで、ほぼ最適のスケジューリング結果を生成する。
我々のフレームワークは、商用コンパイラ上での実世界のオンチップランタイム推論速度アップを最大$sim2.5times$で実証しています。
論文 参考訳(メタデータ) (2023-04-10T17:22:12Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - RANK-NOSH: Efficient Predictor-Based Architecture Search via Non-Uniform
Successive Halving [74.61723678821049]
予算の浪費を回避するため,早期に性能の低いアーキテクチャのトレーニングを終了する階層的スケジューリングアルゴリズムであるNOn-uniform Successive Halving (NOSH)を提案する。
予測器に基づくアーキテクチャ探索をペア比較でランク付けする学習として定式化する。
その結果、RANK-NOSHは検索予算を5倍に削減し、様々な空間やデータセットにおける従来の最先端予測手法よりも、競争力やパフォーマンスの向上を実現した。
論文 参考訳(メタデータ) (2021-08-18T07:45:21Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - A Machine Learning Approach for Task and Resource Allocation in Mobile
Edge Computing Based Networks [108.57859531628264]
無線ネットワークにおいて,共同作業,スペクトル,送信電力配分問題について検討する。
提案アルゴリズムは、標準Q-ラーニングアルゴリズムと比較して、収束に必要なイテレーション数と全ユーザの最大遅延を最大18%、11.1%削減することができる。
論文 参考訳(メタデータ) (2020-07-20T13:46:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。