論文の概要: Energy Estimates Across Layers of Computing: From Devices to Large-Scale
Applications in Machine Learning for Natural Language Processing, Scientific
Computing, and Cryptocurrency Mining
- arxiv url: http://arxiv.org/abs/2310.07516v1
- Date: Wed, 11 Oct 2023 14:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:32:56.549465
- Title: Energy Estimates Across Layers of Computing: From Devices to Large-Scale
Applications in Machine Learning for Natural Language Processing, Scientific
Computing, and Cryptocurrency Mining
- Title(参考訳): コンピューティングの層にわたるエネルギー推定:自然言語処理、科学計算、暗号通貨マイニングのための機械学習におけるデバイスから大規模応用へ
- Authors: Sadasivan Shankar
- Abstract要約: デバイスからアルゴリズムに至るまでの計算層におけるエネルギー使用量の推定と分析を行った。
人工知能(AI)/Machine Learning for Natural Language Processing、Scientific Simulations、Cryptocurrency Miningの3つの大規模コンピューティング応用が推定されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Estimates of energy usage in layers of computing from devices to algorithms
have been determined and analyzed. Building on the previous analysis [3],
energy needed from single devices and systems including three large-scale
computing applications such as Artificial Intelligence (AI)/Machine Learning
for Natural Language Processing, Scientific Simulations, and Cryptocurrency
Mining have been estimated. In contrast to the bit-level switching, in which
transistors achieved energy efficiency due to geometrical scaling, higher
energy is expended both at the at the instructions and simulations levels of an
application. Additionally, the analysis based on AI/ML Accelerators indicate
that changes in architectures using an older semiconductor technology node have
comparable energy efficiency with a different architecture using a newer
technology. Further comparisons of the energy in computing systems with the
thermodynamic and biological limits, indicate that there is a 27-36 orders of
magnitude higher energy requirements for total simulation of an application.
These energy estimates underscore the need for serious considerations of energy
efficiency in computing by including energy as a design parameter, enabling
growing needs of compute-intensive applications in a digital world.
- Abstract(参考訳): デバイスからアルゴリズムまでの計算層におけるエネルギー使用量の推定と分析を行った。
これまでの分析[3]に基づいて,人工知能(AI)/機械学習,科学技術シミュレーション,暗号通貨マイニングといった大規模3つのコンピューティングアプリケーションを含む,単一デバイスやシステムから必要なエネルギーを推定した。
トランジスタが幾何学的スケーリングによってエネルギー効率を達成するビットレベルのスイッチとは対照的に、より高いエネルギーはアプリケーションのat命令とシミュレーションレベルの両方で消費される。
さらに、ai/ml加速器に基づく分析は、古い半導体技術ノードを用いたアーキテクチャの変化が、新しい技術を用いた異なるアーキテクチャと同等のエネルギー効率を持つことを示している。
計算システムにおけるエネルギーと熱力学的および生物学的限界のさらなる比較は、アプリケーションの総シミュレーションに27-36桁の高エネルギー要求があることを示している。
これらのエネルギー推定は、エネルギーを設計パラメータとして含み、デジタル世界における計算集約型アプリケーションのニーズを増大させることで、コンピューティングにおけるエネルギー効率の深刻な考慮の必要性の中核となっている。
関連論文リスト
- Quantum Computing for Energy Management: A Semi Non-Technical Guide for Practitioners [0.0]
量子コンピューティングは、ハードウェアとソフトウェアの両方レベルでの情報処理の新たなパラダイムである。
この章では、エネルギー管理アプリケーションに量子コンピューティングを使用する機会と課題について論じる。
論文 参考訳(メタデータ) (2024-11-15T00:23:40Z) - Quantum Computing Enhanced Service Ecosystem for Simulation in Manufacturing [56.61654656648898]
本稿では,製造シミュレーションのための量子コンピューティングによるサービスエコシステムの枠組みを提案する。
我々は,これらの新しい計算パラダイムを定量的に評価することを目的とした2つの高価値ユースケースを分析した。
論文 参考訳(メタデータ) (2024-01-19T11:04:14Z) - Deep Photonic Reservoir Computer for Speech Recognition [49.1574468325115]
音声認識は人工知能の分野で重要な課題であり、目覚ましい進歩を目撃してきた。
深い貯水池コンピューティングはエネルギー効率が高いが、よりリソース集約的な機械学習アルゴリズムと比較して、パフォーマンスに制限がある。
フォトニック方式の深層貯水池コンピュータを提案し,その性能を音声認識タスクで評価する。
論文 参考訳(メタデータ) (2023-12-11T17:43:58Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Energy-frugal and Interpretable AI Hardware Design using Learning
Automata [5.514795777097036]
Tsetlin Machineと呼ばれる新しい機械学習アルゴリズムが提案されている。
本稿では,エネルギーフルーガルな人工知能ハードウェア設計手法について検討する。
本研究は, 資源配分が, 頑健かつ解釈可能な学習を達成しつつ, 決定的なエネルギー削減をもたらすことを示す。
論文 参考訳(メタデータ) (2023-05-19T15:11:18Z) - Energy Transformer [64.22957136952725]
我々の研究は、機械学習における有望な3つのパラダイム、すなわち注意機構、エネルギーベースモデル、連想記憶の側面を組み合わせる。
本稿では,エネルギー変換器(ET,Energy Transformer)と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-14T18:51:22Z) - Precise Energy Consumption Measurements of Heterogeneous Artificial
Intelligence Workloads [0.534434568021034]
本稿では,異なるタイプの計算ノード上でのディープラーニングモデルの典型的な2つの応用のエネルギー消費の測定を行う。
我々のアプローチの1つの利点は、スーパーコンピュータの全ユーザーがエネルギー消費に関する情報を利用できることである。
論文 参考訳(メタデータ) (2022-12-03T21:40:55Z) - Trends in Energy Estimates for Computing in AI/Machine Learning
Accelerators, Supercomputers, and Compute-Intensive Applications [3.2634122554914]
幾何スケーリング法則により駆動される異なるシステムの計算エネルギー要求について検討する。
幾何スケーリングによるエネルギー効率が低下していることを示す。
応用レベルでは、汎用AI-ML手法は計算エネルギー集約化が可能である。
論文 参考訳(メタデータ) (2022-10-12T16:14:33Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Learnergy: Energy-based Machine Learners [0.0]
ディープラーニングアーキテクチャの文脈では、機械学習技術が広く推奨されている。
制限ボルツマンマシン(Restricted Boltzmann Machine)と呼ばれるエキサイティングなアルゴリズムは、分類、再構成、画像と信号の生成など、最も多様な応用に取り組むために、エネルギーと確率に基づく性質に依存している。
論文 参考訳(メタデータ) (2020-03-16T21:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。