論文の概要: LEAPER: Modeling Cloud FPGA-based Systems via Transfer Learning
- arxiv url: http://arxiv.org/abs/2208.10606v1
- Date: Mon, 22 Aug 2022 21:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:48:41.558642
- Title: LEAPER: Modeling Cloud FPGA-based Systems via Transfer Learning
- Title(参考訳): LEAPER: トランスファーラーニングによるクラウドFPGAベースのシステムモデリング
- Authors: Gagandeep Singh, Dionysios Diamantopoulos, Juan G\'omez-Luna, Sander
Stuijk, Henk Corporaal, Onur Mutlu
- Abstract要約: LEAPERは,既存のMLベースモデルを未知の環境に適応させるFPGAベースのシステムに対して,トランスファーラーニングに基づくアプローチを提案する。
その結果,5ショットの学習を行うクラウド環境において,移動モデルを用いて予測を行う場合,平均85%の精度が得られた。
- 参考スコア(独自算出の注目度): 13.565689665335697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-learning-based models have recently gained traction as a way to
overcome the slow downstream implementation process of FPGAs by building models
that provide fast and accurate performance predictions. However, these models
suffer from two main limitations: (1) training requires large amounts of data
(features extracted from FPGA synthesis and implementation reports), which is
cost-inefficient because of the time-consuming FPGA design cycle; (2) a model
trained for a specific environment cannot predict for a new, unknown
environment. In a cloud system, where getting access to platforms is typically
costly, data collection for ML models can significantly increase the total
cost-ownership (TCO) of a system. To overcome these limitations, we propose
LEAPER, a transfer learning-based approach for FPGA-based systems that adapts
an existing ML-based model to a new, unknown environment to provide fast and
accurate performance and resource utilization predictions. Experimental results
show that our approach delivers, on average, 85% accuracy when we use our
transferred model for prediction in a cloud environment with 5-shot learning
and reduces design-space exploration time by 10x, from days to only a few
hours.
- Abstract(参考訳): 機械学習ベースのモデルは、高速で正確なパフォーマンス予測を提供するモデルを構築することでFPGAのダウンストリーム実装プロセスの遅さを克服する手段として、最近注目を集めている。
しかし、これらのモデルは、(1)訓練には大量のデータ(fpga合成と実装レポートから抽出された特徴)が必要であり、それは、時間を要するfpga設計サイクルのためにコスト非効率であり、(2)特定の環境向けに訓練されたモデルは、未知の環境に対して予測できない。
プラットフォームへのアクセスが一般的にコストがかかるクラウドシステムでは、MLモデルのデータ収集は、システムのトータルコスト所有者シップ(TCO)を大幅に増加させる可能性がある。
これらの制約を克服するために,既存のMLベースモデルを未知の環境に適応させ,高速かつ正確な性能と資源利用予測を提供するFPGAベースのシステムのためのトランスファーラーニングベースのアプローチであるLEAPERを提案する。
実験の結果,5ショット学習によるクラウド環境での予測に転送モデルを使用する場合,平均85%の精度が得られ,設計空間探索時間の10倍,数日から数時間に短縮できることがわかった。
関連論文リスト
- Efficient Motion Prediction: A Lightweight & Accurate Trajectory Prediction Model With Fast Training and Inference Speed [56.27022390372502]
我々は,1つのGPU上で数時間のトレーニングをしながら,競争力の高いベンチマーク結果を実現する,新しい効率的な動き予測モデルを提案する。
その低推論レイテンシは、特に限られたコンピューティングリソースを持つ自律アプリケーションへのデプロイに適している。
論文 参考訳(メタデータ) (2024-09-24T14:58:27Z) - rule4ml: An Open-Source Tool for Resource Utilization and Latency Estimation for ML Models on FPGA [0.0]
本稿では、FPGA上での合成と実装に先立って、ニューラルネットワーク(NN)のリソース利用と推論遅延を予測する新しい手法を提案する。
NNを高レベル合成(HLS)コードに変換するツールフローであるHLS4MLを活用している。
本手法では, 即時前合成予測に適応した回帰モデルを用いる。
論文 参考訳(メタデータ) (2024-08-09T19:35:10Z) - Understanding the Potential of FPGA-Based Spatial Acceleration for Large Language Model Inference [11.614722231006695]
数十億のパラメータを誇った大規模言語モデル(LLM)は、推論ワークロードの効率的なデプロイに対する大きな需要を生み出している。
本稿では,FPGA上でのLLM推論におけるモデル固有空間加速度の実現可能性と可能性について検討する。
論文 参考訳(メタデータ) (2023-12-23T04:27:06Z) - Symbolic Regression on FPGAs for Fast Machine Learning Inference [2.0920303420933273]
高エネルギー物理コミュニティは、FPGA(Field-Programmable Gate Arrays)上に機械学習ベースのソリューションをデプロイする可能性を探っている
シンボリックレグレッション(SR)と呼ばれる機械学習技術を利用した新しいエンドツーエンドプロシージャを提案する。
提案手法は,最大で5 nsまでの実行時間を最大13倍に抑えながら,90%以上の近似精度を維持した推論モデルを用いて3層ニューラルネットワークを近似できることを示す。
論文 参考訳(メタデータ) (2023-05-06T17:04:02Z) - FlexMoE: Scaling Large-scale Sparse Pre-trained Model Training via
Dynamic Device Placement [19.639936387834677]
Mixture-of-Experts (MoEs) は、様々なダウンストリームタスクにおいて、優れた事前トレーニングのスケーラビリティを示している。
MoEはデータライフサイクルにおける新たなデータ分析パラダイムになりつつある。
本稿では,動的データフローによる非効率性に対して系統的かつ透過的に対処する新しいDNNトレーニングフレームワークFlexMoEを提案する。
論文 参考訳(メタデータ) (2023-04-08T07:34:26Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Real-time Neural-MPC: Deep Learning Model Predictive Control for
Quadrotors and Agile Robotic Platforms [59.03426963238452]
モデル予測制御パイプライン内の動的モデルとして,大規模で複雑なニューラルネットワークアーキテクチャを効率的に統合するフレームワークであるReal-time Neural MPCを提案する。
ニューラルネットワークを使わずに、最先端のMPCアプローチと比較して、位置追跡誤差を最大82%削減することで、実世界の問題に対する我々のフレームワークの実現可能性を示す。
論文 参考訳(メタデータ) (2022-03-15T09:38:15Z) - Learning representations with end-to-end models for improved remaining
useful life prognostics [64.80885001058572]
残りの設備の実用寿命(RUL)は、現在の時刻と故障までの期間として定義される。
マルチ層パーセプトロンと長期メモリ層(LSTM)に基づくエンドツーエンドのディープラーニングモデルを提案し、RULを予測する。
提案するエンド・ツー・エンドのモデルがこのような優れた結果を達成し、他のディープラーニングや最先端の手法と比較する方法について論じる。
論文 参考訳(メタデータ) (2021-04-11T16:45:18Z) - Semi-supervised on-device neural network adaptation for remote and
portable laser-induced breakdown spectroscopy [0.22843885788439797]
LIBS用軽量多層パーセプトロン(MLP)モデルを導入し、新しい入力データのラベルを必要とせずにオンデバイスで適応できます。
データストリーミング中の平均精度は89.3%で、適応をサポートしないモデルに比べて最大2.1%高い精度を示している。
論文 参考訳(メタデータ) (2021-04-08T00:20:36Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Fast-Convergent Federated Learning [82.32029953209542]
フェデレーション学習は、モバイルデバイスの現代的なネットワークを介して機械学習タスクを分散するための、有望なソリューションである。
本稿では,FOLBと呼ばれる高速収束型フェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-26T14:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。