論文の概要: ContainerStress: Autonomous Cloud-Node Scoping Framework for Big-Data ML
Use Cases
- arxiv url: http://arxiv.org/abs/2003.08011v1
- Date: Wed, 18 Mar 2020 01:51:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:39:15.546007
- Title: ContainerStress: Autonomous Cloud-Node Scoping Framework for Big-Data ML
Use Cases
- Title(参考訳): ContainerStress:ビッグデータMLユースケースのためのクラウドノード自動スコープフレームワーク
- Authors: Guang Chao Wang, Kenny Gross, and Akshay Subramaniam
- Abstract要約: OracleLabsは、ネストループのMonte Carloシミュレーションを使用して、任意の規模の顧客MLユースケースを自律的にスケールする自動化フレームワークを開発した。
OracleLabsとNVIDIAの著者は、任意のML予測アルゴリズムの計算コストとGPUアクセラレーションを分析するMLベンチマーク研究に協力している。
- 参考スコア(独自算出の注目度): 0.2752817022620644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying big-data Machine Learning (ML) services in a cloud environment
presents a challenge to the cloud vendor with respect to the cloud container
configuration sizing for any given customer use case. OracleLabs has developed
an automated framework that uses nested-loop Monte Carlo simulation to
autonomously scale any size customer ML use cases across the range of cloud
CPU-GPU "Shapes" (configurations of CPUs and/or GPUs in Cloud containers
available to end customers). Moreover, the OracleLabs and NVIDIA authors have
collaborated on a ML benchmark study which analyzes the compute cost and GPU
acceleration of any ML prognostic algorithm and assesses the reduction of
compute cost in a cloud container comprising conventional CPUs and NVIDIA GPUs.
- Abstract(参考訳): クラウド環境にビッグデータ機械学習(ML)サービスをデプロイすることは、クラウドベンダにとって、任意の顧客ユースケースのサイズを拡大するクラウドコンテナの構成に関する課題となる。
OracleLabsは、ネストループのMonte Carloシミュレーションを使用して、クラウドCPU-GPU"Shapes"(エンドユーザが利用可能なクラウドコンテナ内のCPUやGPUの設定)の範囲で、任意のサイズの顧客MLユースケースを自律的にスケールする自動フレームワークを開発した。
さらに、OracleLabsとNVIDIAの著者は、MLの予測アルゴリズムの計算コストとGPUアクセラレーションを分析し、従来のCPUとNVIDIA GPUで構成されるクラウドコンテナの計算コストの削減を評価するMLベンチマーク研究に協力している。
関連論文リスト
- FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - CWD: A Machine Learning based Approach to Detect Unknown Cloud Workloads [3.523208537466129]
我々は、クラウド環境で実行されるワークロードを特徴付け、プロファイルし、予測する機械学習ベースの技術を開発した。
また,モデルの性能をスタンドアローンで解析する手法も開発している。
論文 参考訳(メタデータ) (2022-11-28T19:41:56Z) - Deployment of ML Models using Kubeflow on Different Cloud Providers [0.17205106391379021]
Kubeflow上にパイプラインという形で、エンドツーエンドの機械学習モデルを作成します。
セットアップの容易さ、デプロイメントモデル、パフォーマンス、制限、ツールの機能など、さまざまなポイントを分析します。
論文 参考訳(メタデータ) (2022-06-27T22:46:11Z) - Walle: An End-to-End, General-Purpose, and Large-Scale Production System
for Device-Cloud Collaborative Machine Learning [40.09527159285327]
We build the first end-to-end and general-purpose system, called Walle, for device-cloud collaborative machine learning (ML)
Walleはデプロイメントプラットフォームで構成され、MLタスクを10億規模のデバイスに分散する。データパイプラインはタスク入力を効率的に準備し、計算コンテナはクロスプラットフォームで高性能な実行環境を提供する。
我々はWalleを実践的なeコマースアプリケーションシナリオで評価し、その有効性、効率、スケーラビリティを実証する。
論文 参考訳(メタデータ) (2022-05-30T03:43:35Z) - Auto-Split: A General Framework of Collaborative Edge-Cloud AI [49.750972428032355]
本稿では,Huawei Cloudのエッジクラウド共同プロトタイプであるAuto-Splitの技法と技術実践について述べる。
私たちの知る限りでは、Deep Neural Network(DNN)分割機能を提供する既存の産業製品はありません。
論文 参考訳(メタデータ) (2021-08-30T08:03:29Z) - The MIT Supercloud Dataset [3.375826083518709]
我々は、大規模なHPCとデータセンター/クラウドオペレーションの分析において、革新的なAI/MLアプローチを促進することを目的とした、MIT Supercloudデータセットを紹介します。
我々は、ジョブ毎のCPUおよびGPU使用率、メモリ使用率、ファイルシステムログ、物理モニタリングデータを含む、MIT Supercloudシステムから詳細な監視ログを提供する。
本稿では,データセットの詳細,収集手法,データ可用性について論じ,このデータを用いて開発されている潜在的な課題について論じる。
論文 参考訳(メタデータ) (2021-08-04T13:06:17Z) - Reproducible Performance Optimization of Complex Applications on the
Edge-to-Cloud Continuum [55.6313942302582]
エッジ・ツー・クラウド・コンティニュム上でのリアルタイムアプリケーションの最適化を支援する手法を提案する。
提案手法は, 制御されたテストベッド環境において, その動作を理解するための厳密な構成解析に頼っている。
当社の方法論はEdge-to-Cloud Continuumの他のアプリケーションに一般化することができる。
論文 参考訳(メタデータ) (2021-08-04T07:35:14Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Machine Learning Algorithms for Active Monitoring of High Performance
Computing as a Service (HPCaaS) Cloud Environments [0.0]
本稿では,HPCプラットフォームとして構成されたクラウドインフラストラクチャ上で動作するエンジニアリングアプリケーションの実用性について検討する。
この研究で考慮された工学的応用としては、ロスアラモス国立研究所が開発した放射線輸送コードMCNP6、オープンソースの計算流体力学コードOpenFOAM、素数分解に使用される一般数場シーブアルゴリズムCADONFSなどがある。
論文 参考訳(メタデータ) (2020-09-26T01:29:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。