論文の概要: Deep Learning Model Deployment in Multiple Cloud Providers: an Exploratory Study Using Low Computing Power Environments
- arxiv url: http://arxiv.org/abs/2503.23988v1
- Date: Mon, 31 Mar 2025 11:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:21.443709
- Title: Deep Learning Model Deployment in Multiple Cloud Providers: an Exploratory Study Using Low Computing Power Environments
- Title(参考訳): 複数のクラウドプロバイダにおけるディープラーニングモデル展開:低コンピューティングパワー環境を用いた探索的研究
- Authors: Elayne Lemos, Rodrigo Oliveira, Jairson Rodrigues, Rosalvo F. Oliveira Neto,
- Abstract要約: 本研究では,GPUを使わずにクラウドベースの機械学習推論ソリューションの実現可能性と実現可能性を示す。
クラウドプロバイダ毎のリアルタイムレイテンシ,ハードウェア使用量,コストを,10実験を再現した7つの実行環境で評価した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The deployment of Machine Learning models at cloud have grown by tech companies. Hardware requirements are higher when these models involve Deep Learning (DL) techniques and the cloud providers' costs may be a barrier. We explore deploying DL models using for experiments the GECToR model, a DL solution for Grammatical Error Correction, across three of the major cloud platforms (AWS, Google Cloud, Azure). We evaluate real-time latency, hardware usage and cost at each cloud provider by 7 execution environments with 10 experiments reproduced. We found that while GPUs excel in performance, they had an average cost 300% higher than solutions without GPU. Our analysis also identifies that processor cache size is crucial for cost-effective CPU deployments, enabling over 50% of cost reduction compared to GPUs. This study demonstrates the feasibility and affordability of cloud-based DL inference solutions without GPUs, benefiting resource-constrained users like startups.
- Abstract(参考訳): クラウドにおける機械学習モデルの展開は、テック企業によって成長している。
これらのモデルがディープラーニング(DL)技術に関わる場合、ハードウェア要件は高く、クラウドプロバイダのコストが障壁になる可能性がある。
GECToRモデル(Grammatical Error Correction用のDLソリューション)は、主要なクラウドプラットフォーム(AWS、Google Cloud、Azure)の3つにまたがる。
クラウドプロバイダ毎のリアルタイムレイテンシ,ハードウェア使用量,コストを,10実験を再現した7つの実行環境で評価した。
GPUのパフォーマンスは優れていますが、GPUのないソリューションよりも平均で300%高いコストでした。
分析により、プロセッサキャッシュサイズはコスト効率のよいCPUデプロイメントに不可欠であり、GPUと比較して50%以上のコスト削減が可能であることを確認した。
この研究は、GPUを使わずにクラウドベースのDL推論ソリューションの実現可能性と実現可能性を示し、スタートアップのようなリソースに制約のあるユーザに利益をもたらす。
関連論文リスト
- FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - How Can We Train Deep Learning Models Across Clouds and Continents? An Experimental Study [57.97785297481162]
代表的なCV, NLP, ASRモデルに対して, 異なるゾーン, 大陸, 雲におけるトレーニングの費用とスループットについて検討した。
スポット価格を活用することで、複数の安価なインスタンスでモデルをトレーニングし、より集中的かつ強力なハードウェアと、競争力のある価格でオンデマンドのクラウド製品の両方を台無しにする、新たなコスト効率の方法が実現されることを示す。
論文 参考訳(メタデータ) (2023-06-05T18:17:37Z) - CWD: A Machine Learning based Approach to Detect Unknown Cloud Workloads [3.523208537466129]
我々は、クラウド環境で実行されるワークロードを特徴付け、プロファイルし、予測する機械学習ベースの技術を開発した。
また,モデルの性能をスタンドアローンで解析する手法も開発している。
論文 参考訳(メタデータ) (2022-11-28T19:41:56Z) - Analysis of Distributed Deep Learning in the Cloud [17.91202259637393]
本研究では,分散ディープラーニング(DDL)プロファイラを導入し,パブリッククラウド上で実行中のDDLが抱えるさまざまな実行"ストール"を判定する。
通信ストールとネットワークストールの2種類の通信ストールを推定する。
プロファイラを使用して一般的なDNNモデルをトレーニングして、さまざまなAWS GPUインスタンスを特徴付け、ユーザが情報的な決定を下す上でのメリットと欠点をリストアップします。
論文 参考訳(メタデータ) (2022-08-30T15:42:36Z) - Kubric: A scalable dataset generator [73.78485189435729]
KubricはPythonフレームワークで、PyBulletやBlenderとインターフェースして写真リアリスティックなシーンを生成する。
本研究では,3次元NeRFモデルの研究から光フロー推定まで,13種類の異なるデータセットを提示することで,Kubricの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-07T18:13:59Z) - ElegantRL-Podracer: Scalable and Elastic Library for Cloud-Native Deep
Reinforcement Learning [141.58588761593955]
クラウドネイティブな深層強化学習のためのライブラリElegantRL-podracerを提案する。
数百万のコアを効率的にサポートし、複数のレベルで大規模な並列トレーニングを実行する。
低レベルでは、各ポッドは1つのGPUで7,000近いGPUコアをフル活用することで、エージェントと環境のインタラクションを並列にシミュレートする。
論文 参考訳(メタデータ) (2021-12-11T06:31:21Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - Sampling Training Data for Continual Learning Between Robots and the
Cloud [26.116999231118793]
ロボットに搭載され、システムのボトルネックを低減するインテリジェントなサンプリングアルゴリズムであるHarvestNetを紹介します。
これは、道路建設現場の新しいデータセット、自動運転車のフィールドテスト、およびストリーミング顔認識上の機械学習モデルの精度を大幅に改善します。
ベースラインアルゴリズムよりも1.05-2.58倍正確であり、sscalablyは組み込みディープラーニングハードウェア上で動作する。
論文 参考訳(メタデータ) (2020-12-12T05:52:33Z) - Budget Learning via Bracketing [50.085728094234476]
予算学習の問題は、学習者の目標として、雲の使用を最小限に抑えつつ、精度の明確な損失を被ることである。
本稿ではブラケットの概念を用いてBL問題に対する新しい定式化を提案する。
我々は、実世界のデータセットに関する我々の理論を実証的に検証し、事前ゲーティングに基づく手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-04-14T04:38:14Z) - Characterizing and Modeling Distributed Training with Transient Cloud
GPU Servers [6.56704851092678]
CM-DAREを用いて,多様なクラスタ構成下での分散トレーニング性能を解析する。
私たちの経験的データセットには、3つのGPUタイプ、6つの地理的領域、20の畳み込みニューラルネットワーク、数千のGoogle Cloudサーバからの計測が含まれています。
また、回帰モデルを用いてトレーニング速度とオーバーヘッドを予測することが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-07T01:49:58Z) - ContainerStress: Autonomous Cloud-Node Scoping Framework for Big-Data ML
Use Cases [0.2752817022620644]
OracleLabsは、ネストループのMonte Carloシミュレーションを使用して、任意の規模の顧客MLユースケースを自律的にスケールする自動化フレームワークを開発した。
OracleLabsとNVIDIAの著者は、任意のML予測アルゴリズムの計算コストとGPUアクセラレーションを分析するMLベンチマーク研究に協力している。
論文 参考訳(メタデータ) (2020-03-18T01:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。