論文の概要: Deep Reinforcement Learning for System-on-Chip: Myths and Realities
- arxiv url: http://arxiv.org/abs/2207.14595v1
- Date: Fri, 29 Jul 2022 10:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:31:04.734297
- Title: Deep Reinforcement Learning for System-on-Chip: Myths and Realities
- Title(参考訳): システムオンチップのための深層強化学習:神話と現実
- Authors: Tegg Taekyong Sung, Bo Ryu
- Abstract要約: 本稿では,SoC(System-on-Chip)リソース割り当て領域におけるニューラルスケジューラの実現可能性について検討する。
我々の新しいニューラルスケジューラ技術であるEclectic Interaction Matching (EIM)は、上記の課題を克服する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural schedulers based on deep reinforcement learning (DRL) have shown
considerable potential for solving real-world resource allocation problems, as
they have demonstrated significant performance gain in the domain of cluster
computing. In this paper, we investigate the feasibility of neural schedulers
for the domain of System-on-Chip (SoC) resource allocation through extensive
experiments and comparison with non-neural, heuristic schedulers. The key
finding is three-fold. First, neural schedulers designed for cluster computing
domain do not work well for SoC due to i) heterogeneity of SoC computing
resources and ii) variable action set caused by randomness in incoming jobs.
Second, our novel neural scheduler technique, Eclectic Interaction Matching
(EIM), overcomes the above challenges, thus significantly improving the
existing neural schedulers. Specifically, we rationalize the underlying reasons
behind the performance gain by the EIM-based neural scheduler. Third, we
discover that the ratio of the average processing elements (PE) switching delay
and the average PE computation time significantly impacts the performance of
neural SoC schedulers even with EIM. Consequently, future neural SoC scheduler
design must consider this metric as well as its implementation overhead for
practical utility.
- Abstract(参考訳): 深部強化学習(DRL)に基づくニューラルスケジューラは、クラスタコンピューティングの領域において大きなパフォーマンス向上を示すため、現実世界のリソース割り当て問題を解決する大きな可能性を示している。
本稿では,システム・オン・チップ(soc)リソース割り当て領域におけるニューラル・スケジューラの実現可能性を調べ,非ニューラル・ヒューリスティック・スケジューラとの比較を行った。
鍵となる発見は3つある。
まず、クラスタコンピューティング領域用に設計されたニューラルスケジューラは、SoCではうまく動作しない。
一 SoC 計算資源の不均一性及び
二 入社ジョブのランダム性による変動動作セット
第2に,新たなニューラルスケジューラ手法であるeim(electic interaction matching)は,上記の課題を克服し,既存のニューラルスケジューラを大幅に改善する。
具体的には、EIMベースのニューラルスケジューラによる性能向上の背景にある理由を合理化する。
第3に,平均処理要素 (PE) の切替遅延と平均計算時間との比が,EMMにおいてもニューラルSoCスケジューラの性能に大きく影響することを発見した。
したがって、将来のneural socスケジューラの設計では、実用性のためにこのメトリックと実装オーバーヘッドを考慮する必要がある。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Switchable Decision: Dynamic Neural Generation Networks [98.61113699324429]
本稿では,各データインスタンスのリソースを動的に割り当てることで,推論を高速化するスイッチブルな決定を提案する。
提案手法は, 同一の精度を維持しながら, 推論時のコスト低減に有効である。
論文 参考訳(メタデータ) (2024-05-07T17:44:54Z) - Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - GRSN: Gated Recurrent Spiking Neurons for POMDPs and MARL [28.948871773551854]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率と高速推論能力のため、様々な分野に広く応用されている。
現在のスパイキング強化学習(SRL)アルゴリズムでは、複数の時間ステップのシミュレーション結果がRLの単一ステップ決定にしか対応しない。
本稿では、スパイキングニューロンの単一ステップ更新を利用して、RLの歴史的状態情報を蓄積する新しい時間的アライメントパラダイム(TAP)を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:20:50Z) - Knowledge Enhanced Conditional Imputation for Healthcare Time-series [9.937117045677923]
Conditional Self-Attention Imputation (CSAI)は、複雑な欠落データパターンの課題に対処するために設計された、新しいリカレントニューラルネットワークアーキテクチャである。
CSAIは、EHRデータ特性に特化して、現在の最先端のニューラルネットワークベースの計算手法を拡張している。
この研究は、アルゴリズム的計算を臨床的現実とより緊密に整合させることにより、ERHに適用されるニューラルネットワーク計算の状態を著しく改善する。
論文 参考訳(メタデータ) (2023-12-27T20:42:40Z) - Sparse Multitask Learning for Efficient Neural Representation of Motor
Imagery and Execution [30.186917337606477]
運動画像(MI)と運動実行(ME)タスクのためのスパースマルチタスク学習フレームワークを提案する。
MI-ME分類のためのデュアルタスクCNNモデルが与えられた場合、過渡的な接続に対して、サリエンシに基づくスペーシフィケーションアプローチを適用する。
以上の結果から, この調整された疎水性は, 過度に適合する問題を緩和し, 少ないデータ量でテスト性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T09:06:16Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - DeepSoCS: A Neural Scheduler for Heterogeneous System-on-Chip (SoC)
Resource Scheduling [0.0]
システム・オン・チップ(SoC)システムのための新しいスケジューリングソリューションを提案する。
我々のDeep Reinforcement Learning (DRL)ベースのスケジューリング(DeepSoCS)はルールベースのスケジューラの脆さを克服する。
論文 参考訳(メタデータ) (2020-05-15T17:31:27Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。