論文の概要: Thermodynamic Cost of Edge Detection in Artificial Neural
Network(ANN)-Based Processors
- arxiv url: http://arxiv.org/abs/2003.08196v2
- Date: Thu, 29 Oct 2020 10:15:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 10:06:44.992127
- Title: Thermodynamic Cost of Edge Detection in Artificial Neural
Network(ANN)-Based Processors
- Title(参考訳): ニューラルネットワーク(ANN)ベースのプロセッサにおけるエッジ検出の熱力学的コスト
- Authors: Se\c{c}kin Bar{\i}\c{s}{\i}k and \.Ilke Ercan
- Abstract要約: エッジ検出タスクの実行を訓練したニューラルネットワーク(ANN)ベースのプロセッサにおいて,エネルギー散逸に対するアーキテクチャレベルのコントリビューションについて検討する。
結果は、フォン・ノイマンアーキテクチャに基づく汎用プロセッサよりも、特定のタスクのために訓練されたANNネットワークの本質的な効率上の利点を明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Architecture-based heat dissipation analyses allow us to reveal fundamental
sources of inefficiency in a given processor and thereby provide us with
road-maps to design less dissipative computing schemes independent of
technology-base used to implement them. In this work, we study
architectural-level contributions to energy dissipation in an Artificial Neural
Network (ANN)-based processor that is trained to perform edge-detection task.
We compare the training and information processing cost of ANN to that of
conventional architectures and algorithms using 64-pixel binary image. Our
results reveal the inherent efficiency advantages of an ANN network trained for
specific tasks over general-purpose processors based on von Neumann
architecture. We also compare the proposed performance improvements to that of
Cellular Array Processors (CAPs) and illustrate the reduction in dissipation
for special purpose processors. Lastly, we calculate the change in dissipation
as a result of input data structure and show the effect of randomness on
energetic cost of information processing. The results we obtained provide a
basis for comparison for task-based fundamental energy efficiency analyses for
a range of processors and therefore contribute to the study of
architecture-level descriptions of processors and thermodynamic cost
calculations based on physics of computation.
- Abstract(参考訳): アーキテクチャに基づく熱散逸分析により、与えられたプロセッサの非効率性の基本的な源を明らかにすることができ、そのため、実装に使用される技術ベースに依存しない、より散逸の少ない計算スキームを設計するためのロードマップを提供する。
本研究では,エッジ検出タスクの実行を訓練したニューラルネットワーク(ANN)ベースのプロセッサにおいて,エネルギー散逸に対するアーキテクチャレベルのコントリビューションについて検討する。
ANNのトレーニングと情報処理のコストを64ピクセルのバイナリ画像を用いた従来のアーキテクチャやアルゴリズムと比較する。
この結果から,von neumann アーキテクチャに基づく汎用プロセッサ上での特定タスク用に訓練された ann ネットワークの固有効率の利点が明らかになった。
また,提案した性能改善をセルアレイプロセッサ(CAP)と比較し,専用プロセッサの消散量の低減を図示した。
最後に,入力データ構造の結果として散逸の変化を計算し,情報処理のエネルギーコストに対するランダム性の影響を示す。
その結果,様々なプロセッサを対象としたタスクベース基本エネルギー効率解析の比較の基礎が得られ,プロセッサのアーキテクチャレベル記述や計算物理に基づく熱力学的コスト計算の研究に寄与した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Neuromorphic on-chip reservoir computing with spiking neural network architectures [0.562479170374811]
貯留層コンピューティングは、リカレントニューラルネットワークの計算能力を活用するための有望なアプローチである。
本稿では,貯水池計算フレームワークにおける統合・火災ニューロンの2つのタスクへの適用について検討する。
本稿では,IntelのニューロモーフィックコンピューティングソフトウェアフレームワークであるLavaと,Loihiのオンチップ実装を用いて,独自の統合・ファイアコードを用いた貯水池計算性能について検討する。
論文 参考訳(メタデータ) (2024-07-30T05:05:09Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Free-Space Optical Spiking Neural Network [0.0]
自由空間光深絞り畳み込みニューラルネットワーク(OSCNN)について紹介する。
この手法は人間の眼の計算モデルからインスピレーションを得ている。
以上の結果から,電子的ONNと比較して,レイテンシと消費電力を最小に抑えた有望な性能を示す。
論文 参考訳(メタデータ) (2023-11-08T09:41:14Z) - Neural network scoring for efficient computing [0.9124662097191377]
ニューラルネットワークの推論において測定された精度と消費電力のトレードオフを特徴付ける合成スコアを提案する。
私たちの知る限りでは、ハードウェアアーキテクチャ上のニューラルアーキテクチャに対する最初の適合テストです。
論文 参考訳(メタデータ) (2023-10-14T10:29:52Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Large-scale neuromorphic optoelectronic computing with a reconfigurable
diffractive processing unit [38.898230519968116]
回折処理ユニットを構築することにより、光電子再構成可能な計算パラダイムを提案する。
異なるニューラルネットワークを効率的にサポートし、数百万のニューロンで高いモデル複雑性を達成することができる。
市販の光電子部品を用いたプロトタイプシステムは,最先端のグラフィックス処理ユニットの性能を超越している。
論文 参考訳(メタデータ) (2020-08-26T16:34:58Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Near-Optimal Hardware Design for Convolutional Neural Networks [0.0]
本研究では,畳み込みニューラルネットワークのための新しい,特殊目的,高効率ハードウェアアーキテクチャを提案する。
提案アーキテクチャは,モデルの計算フローと同じ構造を持つ計算回路を設計することにより,乗算器の利用を最大化する。
提案するハードウェアアーキテクチャに基づく実装が,商用AI製品に適用されている。
論文 参考訳(メタデータ) (2020-02-06T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。