論文の概要: OpenHLS: High-Level Synthesis for Low-Latency Deep Neural Networks for
Experimental Science
- arxiv url: http://arxiv.org/abs/2302.06751v2
- Date: Wed, 15 Feb 2023 16:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 11:24:12.727696
- Title: OpenHLS: High-Level Synthesis for Low-Latency Deep Neural Networks for
Experimental Science
- Title(参考訳): OpenHLS:実験科学のための低レイテンシディープニューラルネットワークのための高レベル合成
- Authors: Maksim Levental, Arham Khan, Ryan Chard, Kazutomo Yoshi, Kyle Chard,
Ian Foster
- Abstract要約: 本稿では,ディープニューラルネットワークの高レベル表現を低レベル表現に変換するための,オープンソースの軽量コンパイラフレームワークを提案する。
我々はOpenHLSがスループット4.8$mu$s/sampleでネットワークの実装を作成できることを示した。
- 参考スコア(独自算出の注目度): 0.6571063542099524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many experiment-driven scientific domains, such as high-energy physics,
material science, and cosmology, high data rate experiments impose hard
constraints on data acquisition systems: collected data must either be
indiscriminately stored for post-processing and analysis, thereby necessitating
large storage capacity, or accurately filtered in real-time, thereby
necessitating low-latency processing. Deep neural networks, effective in other
filtering tasks, have not been widely employed in such data acquisition
systems, due to design and deployment difficulties. We present an open source,
lightweight, compiler framework, without any proprietary dependencies, OpenHLS,
based on high-level synthesis techniques, for translating high-level
representations of deep neural networks to low-level representations, suitable
for deployment to near-sensor devices such as field-programmable gate arrays.
We evaluate OpenHLS on various workloads and present a case-study
implementation of a deep neural network for Bragg peak detection in the context
of high-energy diffraction microscopy. We show OpenHLS is able to produce an
implementation of the network with a throughput 4.8 $\mu$s/sample, which is
approximately a 4$\times$ improvement over the existing implementation
- Abstract(参考訳): 高エネルギー物理学、物質科学、宇宙論など、多くの実験駆動科学領域において、高データレート実験はデータ取得システムに対して厳しい制約を課している。
他のフィルタリングタスクに有効なディープニューラルネットワークは、設計とデプロイメントの困難のため、このようなデータ取得システムに広く採用されていない。
我々は,高度なニューラルネットワークの高レベル表現を低レベル表現に変換するための,高レベル合成技術に基づくOpenHLSという,プロプライエタリな依存関係のないオープンソースで軽量なコンパイラフレームワークを提案する。
各種ワークロード上でOpenHLSを評価し,高エネルギー回折顕微鏡を用いたブラッグピーク検出のためのディープニューラルネットワークのケーススタディ実装を提案する。
我々は、openhlsがスループット4.8$\mu$s/sampleでネットワークの実装を作成できることを示し、これは既存の実装よりも約4$\times$の改善である。
関連論文リスト
- Spectrum-Informed Multistage Neural Networks: Multiscale Function Approximators of Machine Precision [1.2663244405597374]
我々は,新しい多段階ニューラルネットワークを用いて,前段階から残余を学習する。
ニューラルネットワークのスペクトルバイアスにうまく取り組みました。
このアプローチにより、ニューラルネットワークはターゲット関数を二重浮動小数点マシン精度に適合させることができる。
論文 参考訳(メタデータ) (2024-07-24T12:11:09Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Complex-Valued Neural Networks for Data-Driven Signal Processing and
Signal Understanding [1.2691047660244337]
複雑な評価されたニューラルネットワークは、信号処理、センシング、通信領域にわたる多くのタスクにおいて優れたモデリング性能を誇っている。
本稿では,PyTorch上に構築された複雑なニューラルネットワーク操作とアーキテクチャのための軽量インタフェースの実装を目的としたパッケージの概要を述べる。
論文 参考訳(メタデータ) (2023-09-14T16:55:28Z) - DLDNN: Deterministic Lateral Displacement Design Automation by Neural
Networks [1.8365768330479992]
本稿では、決定論的側方変位(DLD)問題に対処する高速多目的設計自動化プラットフォームについて検討する。
畳み込みニューラルネットワークと人工ニューラルネットワークを用いて、様々なDLD構成の速度場と臨界径を学習した。
開発ツールは12の臨界条件でテストされ、4%未満の誤差で確実に実行された。
論文 参考訳(メタデータ) (2022-08-30T14:38:17Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - EagerNet: Early Predictions of Neural Networks for Computationally
Efficient Intrusion Detection [2.223733768286313]
最小限のリソースでネットワーク攻撃を検出するアーキテクチャを提案する。
アーキテクチャはバイナリまたはマルチクラスの分類問題に対処でき、ネットワークの精度を予測速度と交換できる。
論文 参考訳(メタデータ) (2020-07-27T11:31:37Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。