論文の概要: Insight Gained from Migrating a Machine Learning Model to Intelligence Processing Units
- arxiv url: http://arxiv.org/abs/2404.10730v1
- Date: Tue, 16 Apr 2024 17:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 15:55:23.558412
- Title: Insight Gained from Migrating a Machine Learning Model to Intelligence Processing Units
- Title(参考訳): マシンラーニングモデルをインテリジェンス処理ユニットに移行したInsight
- Authors: Hieu Le, Zhenhua He, Mai Le, Dhruva K. Chakravorty, Lisa M. Perez, Akhil Chilumuru, Yan Yao, Jiefu Chen,
- Abstract要約: インテリジェンス処理ユニット(IPU)は、機械学習(ML)アプリケーションのためのGPUに代わる実行可能なアクセラレータを提供する。
本稿では,GPU から IPU へモデルを移行するプロセスについて検討し,パイプライニングや勾配蓄積などの最適化手法について検討する。
従来のColossus IPUと比較して,Bow IPUの性能は大幅に向上した。
- 参考スコア(独自算出の注目度): 8.782847610934635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The discoveries in this paper show that Intelligence Processing Units (IPUs) offer a viable accelerator alternative to GPUs for machine learning (ML) applications within the fields of materials science and battery research. We investigate the process of migrating a model from GPU to IPU and explore several optimization techniques, including pipelining and gradient accumulation, aimed at enhancing the performance of IPU-based models. Furthermore, we have effectively migrated a specialized model to the IPU platform. This model is employed for predicting effective conductivity, a parameter crucial in ion transport processes, which govern the performance of multiple charge and discharge cycles of batteries. The model utilizes a Convolutional Neural Network (CNN) architecture to perform prediction tasks for effective conductivity. The performance of this model on the IPU is found to be comparable to its execution on GPUs. We also analyze the utilization and performance of Graphcore's Bow IPU. Through benchmark tests, we observe significantly improved performance with the Bow IPU when compared to its predecessor, the Colossus IPU.
- Abstract(参考訳): 本稿では、インテリジェンス処理ユニット(IPU)が、材料科学とバッテリー研究の分野における機械学習(ML)アプリケーションのためのGPUに代わる実行可能なアクセラレータを提供することを示す。
本稿では,GPU から IPU への移行プロセスについて検討し,IPU モデルの性能向上を目的としたパイプライニングや勾配蓄積など,いくつかの最適化手法について検討する。
さらに、我々は、特別なモデルをIPUプラットフォームに効果的に移行しました。
このモデルは、イオン輸送プロセスにおいて重要なパラメータである有効導電率の予測に用いられ、電池の複数充電サイクルと放電サイクルのパフォーマンスを制御している。
このモデルは、畳み込みニューラルネットワーク(CNN)アーキテクチャを使用して、効率的な導電率の予測タスクを実行する。
IPUにおけるこのモデルの性能は、GPU上での実行に匹敵する。
また,Graphcore の Bow IPU の利用状況と性能についても検討した。
ベンチマークテストにより,前機種であるColossus IPUと比較して,Bow IPUの性能が大幅に向上した。
関連論文リスト
- EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,新しいパイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法に比べて,プリフィルスループットが平均21%向上していることが判明した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Performance Tuning for GPU-Embedded Systems: Machine-Learning-based and
Analytical Model-driven Tuning Methodologies [0.0]
本研究は,分析モデル駆動型チューニング手法と機械学習(ML)に基づくチューニング手法を紹介する。
NVIDIA JetsonシステムにおけるBPLGライブラリの異なる並列プレフィックス実装のための2つのチューニング手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-10-24T22:09:03Z) - Heterogeneous Integration of In-Memory Analog Computing Architectures
with Tensor Processing Units [0.0]
本稿では,IMACユニットとエッジTPUを統合してモバイルCNNの性能を向上させる,新しい,異種,混合信号,混合精度アーキテクチャを提案する。
本稿では,TPU-IMACアーキテクチャ上にモデルをデプロイする際の潜在的な精度低下を軽減するために,混合精度トレーニング手法を取り入れた統合学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-18T19:44:56Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - The Preliminary Results on Analysis of TAIGA-IACT Images Using
Convolutional Neural Networks [68.8204255655161]
本研究の目的は,AIGA-IACTに設定された課題を解決するための機械学習アプリケーションの可能性を検討することである。
The method of Convolutional Neural Networks (CNN) was applied to process and analysis Monte-Carlo eventssimulated with CORSIKA。
論文 参考訳(メタデータ) (2021-12-19T15:17:20Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Performance and Power Modeling and Prediction Using MuMMI and Ten
Machine Learning Methods [0.13764085113103217]
モデリングと予測ツール MuMMI と10の機械学習手法を用いて、性能とパワーをモデル化し予測する。
実験の結果,MMMIを用いた性能・パワーの予測誤差は,ほとんどの場合10%未満であることがわかった。
論文 参考訳(メタデータ) (2020-11-12T21:24:11Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - Using Machine Learning to Emulate Agent-Based Simulations [0.0]
エージェントベースモデル(ABM)解析に用いる統計エミュレータとして,複数の機械学習手法の性能評価を行った。
エージェントベースのモデリングは、モデルに対するより堅牢な感度解析を容易にするため、エミュレーションに機械学習を用いる利点がある。
論文 参考訳(メタデータ) (2020-05-05T11:48:36Z) - Graphcore C2 Card performance for image-based deep learning application:
A Report [0.3149883354098941]
Graphcoreは、機械学習アプリケーションを高速化するためのIPUプロセッサを導入した。
本稿では,深いニューラルネットワーク上でのIPUプロセッサの性能評価を行うベンチマークについて報告する。
論文 参考訳(メタデータ) (2020-02-26T17:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。