論文の概要: Performance and Energy Consumption of Parallel Machine Learning
Algorithms
- arxiv url: http://arxiv.org/abs/2305.00798v1
- Date: Mon, 1 May 2023 13:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 13:23:22.049493
- Title: Performance and Energy Consumption of Parallel Machine Learning
Algorithms
- Title(参考訳): 並列機械学習アルゴリズムの性能とエネルギー消費
- Authors: Xidong Wu, Preston Brazzle, Stephen Cahoon
- Abstract要約: 機械学習モデルは、様々な現実世界のアプリケーションで顕著な成功を収めた。
機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングのプロセスを高速化するための一般的な戦略である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have achieved remarkable success in various
real-world applications such as data science, computer vision, and natural
language processing. However, model training in machine learning requires
large-scale data sets and multiple iterations before it can work properly.
Parallelization of training algorithms is a common strategy to speed up the
process of training. However, many studies on model training and inference
focus only on aspects of performance. Power consumption is also an important
metric for any type of computation, especially high-performance applications.
Machine learning algorithms that can be used on low-power platforms such as
sensors and mobile devices have been researched, but less power optimization is
done for algorithms designed for high-performance computing.
In this paper, we present a C++ implementation of logistic regression and the
genetic algorithm, and a Python implementation of neural networks with
stochastic gradient descent (SGD) algorithm on classification tasks. We will
show the impact that the complexity of the model and the size of the training
data have on the parallel efficiency of the algorithm in terms of both power
and performance. We also tested these implementations using shard-memory
parallelism, distributed memory parallelism, and GPU acceleration to speed up
machine learning model training.
- Abstract(参考訳): 機械学習モデルは、データサイエンス、コンピュータビジョン、自然言語処理など、様々な現実世界のアプリケーションで顕著に成功している。
しかし、機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングプロセスをスピードアップするための一般的な戦略である。
しかし、モデルトレーニングと推論に関する多くの研究は、パフォーマンスの側面のみに焦点を当てている。
電力消費はあらゆる種類の計算、特に高性能アプリケーションにとって重要な指標である。
センサやモバイルデバイスなどの低消費電力プラットフォームで使用できる機械学習アルゴリズムが研究されているが、高性能コンピューティング用に設計されたアルゴリズムでは、少ない電力最適化が行われている。
本稿では,ロジスティック回帰と遺伝的アルゴリズムのc++実装と,分類タスクに確率的勾配降下(sgd)アルゴリズムを用いたニューラルネットワークのpython実装を提案する。
モデルの複雑さとトレーニングデータのサイズが、パワーとパフォーマンスの両方の観点からアルゴリズムの並列効率に与える影響を示す。
また、シャードメモリ並列性、分散メモリ並列性、GPUアクセラレーションを用いてこれらの実装をテストし、機械学習モデルのトレーニングを高速化した。
関連論文リスト
- Towards provably efficient quantum algorithms for large-scale
machine-learning models [11.440134080370811]
我々は、フォールトトレラントな量子コンピューティングが、一般的な(確率的な)勾配降下アルゴリズムに対して、証明可能な効率のよい解決を提供する可能性を示している。
700万から1億3300万のパラメータから、大規模な機械学習モデルのインスタンスをベンチマークします。
論文 参考訳(メタデータ) (2023-03-06T19:00:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Benchmarking Learning Efficiency in Deep Reservoir Computing [23.753943709362794]
我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
論文 参考訳(メタデータ) (2022-09-29T08:16:52Z) - Machine Learning Training on a Real Processing-in-Memory System [9.286176889576996]
機械学習アルゴリズムのトレーニングは計算集約的なプロセスであり、しばしばメモリバウンドである。
メモリ内処理機能を備えたメモリ中心のコンピューティングシステムは、このデータ移動ボトルネックを軽減することができる。
我々の研究は、現実世界の汎用PIMアーキテクチャ上で機械学習アルゴリズムのトレーニングを評価する最初のものである。
論文 参考訳(メタデータ) (2022-06-13T10:20:23Z) - Benchmarking Processor Performance by Multi-Threaded Machine Learning
Algorithms [0.0]
本稿では,マルチスレッド機械学習クラスタリングアルゴリズムの性能比較を行う。
私は、アルゴリズムのパフォーマンス特性を決定するために、線形回帰、ランダムフォレスト、K-Nearest Neighborsに取り組んでいます。
論文 参考訳(メタデータ) (2021-09-11T13:26:58Z) - Towards Efficient and Scalable Acceleration of Online Decision Tree
Learning on FPGA [20.487660974785943]
ビッグデータの時代において、従来の決定木誘導アルゴリズムは大規模なデータセットを学習するのに適していない。
本稿では,現在最先端のオンライン学習モデルの1つであるHoeffdingツリーの帰納化を改善するために,新しいQuantileベースのアルゴリズムを提案する。
フィールドプログラミング可能なゲートアレイ上に,高性能,ハードウェア効率,スケーラブルなオンライン決定木学習システムを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:23:43Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。