論文の概要: A Unified Cloud-Enabled Discrete Event Parallel and Distributed
Simulation Architecture
- arxiv url: http://arxiv.org/abs/2302.11242v1
- Date: Wed, 22 Feb 2023 09:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:39:34.896279
- Title: A Unified Cloud-Enabled Discrete Event Parallel and Distributed
Simulation Architecture
- Title(参考訳): 統一クラウド対応離散イベント並列と分散シミュレーションアーキテクチャ
- Authors: Jos\'e L. Risco-Mart\'in, Kevin Henares, Saurabh Mittal, Luis F.
Almendras and Katzalin Olcoz
- Abstract要約: クラウドにシミュレーションをデプロイするのに十分な柔軟性を備えた並列分散M&Sアーキテクチャを提案する。
我々のフレームワークは、離散イベントシステム仕様(DEVS)の形式に基づいている。
並列および分散フレームワークのパフォーマンスは、xDEVS M&Sツールと最大8つの計算ノードを持つDEVStoneベンチマークを用いてテストされる。
- 参考スコア(独自算出の注目度): 0.7949705607963994
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Cloud simulation environments today are largely employed to model and
simulate complex systems for remote accessibility and variable capacity
requirements. In this regard, scalability issues in Modeling and Simulation
(M\&S) computational requirements can be tackled through the elasticity of
on-demand Cloud deployment. However, implementing a high performance cloud M\&S
framework following these elastic principles is not a trivial task as
parallelizing and distributing existing architectures is challenging. Indeed,
both the parallel and distributed M\&S developments have evolved following
separate ways. Parallel solutions has always been focused on ad-hoc solutions,
while distributed approaches, on the other hand, have led to the definition of
standard distributed frameworks like the High Level Architecture (HLA) or
influenced the use of distributed technologies like the Message Passing
Interface (MPI). Only a few developments have been able to evolve with the
current resilience of computing hardware resources deployment, largely focused
on the implementation of Simulation as a Service (SaaS), albeit independently
of the parallel ad-hoc methods branch. In this paper, we present a unified
parallel and distributed M\&S architecture with enough flexibility to deploy
parallel and distributed simulations in the Cloud with a low effort, without
modifying the underlying model source code, and reaching important speedups
against the sequential simulation, especially in the parallel implementation.
Our framework is based on the Discrete Event System Specification (DEVS)
formalism. The performance of the parallel and distributed framework is tested
using the xDEVS M\&S tool, Application Programming Interface (API) and the
DEVStone benchmark with up to eight computing nodes, obtaining maximum speedups
of $15.95\times$ and $1.84\times$, respectively.
- Abstract(参考訳): 今日のクラウドシミュレーション環境は、リモートアクセシビリティと可変キャパシティ要件のために複雑なシステムをモデル化しシミュレートするために主に使われています。
この点において、モデリングとシミュレーション(M\&S)の計算要求におけるスケーラビリティの問題は、オンデマンドクラウドデプロイメントの弾力性によって対処できる。
しかし、これらの柔軟な原則に従って高性能なクラウドM\&Sフレームワークを実装することは、既存のアーキテクチャの並列化と分散が難しいため、簡単な作業ではない。
実際、並列および分散M\&S開発は別々の方法で進化してきた。
一方、分散アプローチは、ハイレベルアーキテクチャ(HLA)のような標準的な分散フレームワークの定義や、メッセージパッシングインターフェース(MPI)のような分散テクノロジの使用に影響を与えています。
並列のアドホックメソッドブランチとは無関係に、シミュレーション・アズ・ア・サービス(SaaS)の実装に重点を置いた、現在のコンピューティングハードウェアリソースのデプロイメントのレジリエンスによって、進化できる開発はごくわずかである。
本稿では,クラウド上で並列および分散シミュレーションを低労力で展開する上で,基盤となるモデルソースコードを変更することなく,並列および分散M\&Sアーキテクチャを統一化し,特に並列実装において,逐次シミュレーションに対して重要なスピードアップを達成する。
我々のフレームワークは、離散イベントシステム仕様(DEVS)の形式に基づいている。
並列および分散フレームワークのパフォーマンスは、xDEVS M\&Sツール、アプリケーションプログラミングインタフェース(API)、最大8ノードのDEVStoneベンチマークを使用してテストされ、それぞれ15.95\times$と1.84\times$の最大スピードアップが得られる。
関連論文リスト
- SeBS-Flow: Benchmarking Serverless Cloud Function Workflows [51.4200085836966]
本稿では、最初のサーバーレスワークフローベンチマークスイートSeBS-Flowを提案する。
SeBS-Flowには6つの実世界のアプリケーションベンチマークと、異なる計算パターンを表す4つのマイクロベンチマークが含まれている。
当社では,パフォーマンス,コスト,スケーラビリティ,ランタイムの偏差など,3つの主要なクラウドプラットフォームに関する包括的な評価を実施しています。
論文 参考訳(メタデータ) (2024-10-04T14:52:18Z) - ATOM: Asynchronous Training of Massive Models for Deep Learning in a Decentralized Environment [7.916080032572087]
Atomは、分散化された環境で巨大なモデルの非同期トレーニング用に設計された、レジリエントな分散トレーニングフレームワークである。
atomは、スワップをシームレスにモデルし、トレーニングスループットを最適化するために複数のコピーを同時にトレーニングすることで、1つのホスト(ピア)に完全なLLMを適合させることを目的としている。
異なるGPT-3モデル構成を用いて実験したところ、最適ネットワーク接続のシナリオでは、原子は最先端の分散パイプライン並列化アプローチを組み込んだ場合、トレーニング効率を最大20倍に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:43:43Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Distributed Compressed Sparse Row Format for Spiking Neural Network
Simulation, Serialization, and Interoperability [0.48733623015338234]
圧縮スパース列(CSR)であるスパース行列を効率的に表現するために広く使われているフォーマットの並列拡張について論じる。
我々は, ニューロンやシナプス状態などの付加的なネットワーク情報を, dCSR がネットワーク状態のパーティショニングに基づく直接分布を提供するため, その隣接性に合わせて整理することを主張した。
実装の可能性を秘めており、ニューラルネットワークコミュニティにおける採用に向けて前進しています。
論文 参考訳(メタデータ) (2023-04-12T03:19:06Z) - SWARM Parallelism: Training Large Models Can Be Surprisingly
Communication-Efficient [69.61083127540776]
ディープラーニングアプリケーションは、数十億のパラメータを持つ大きなモデルを使用することの恩恵を受ける。
これらのモデルのトレーニングは、特殊なHPCクラスタを必要とするため、非常に高価である。
安価な"プリエンプティブル"インスタンスを使用するか、あるいは複数のリージョンから既存のリソースをプールする。
論文 参考訳(メタデータ) (2023-01-27T18:55:19Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Parallel Simulation of Quantum Networks with Distributed Quantum State
Management [56.24769206561207]
我々は、量子ネットワークの並列シミュレーションの要件を特定し、最初の並列離散事象量子ネットワークシミュレータを開発する。
コントリビューションには、複数のプロセスに分散した共有量子情報を維持する量子状態マネージャの設計と開発が含まれています。
既存のシーケンシャルバージョンと並行してオープンソースツールとして,並列SeQUeNCeシミュレータをリリースする。
論文 参考訳(メタデータ) (2021-11-06T16:51:17Z) - Device Scheduling and Update Aggregation Policies for Asynchronous
Federated Learning [72.78668894576515]
Federated Learning (FL)は、新しく登場した分散機械学習(ML)フレームワークである。
本稿では,FLシステムにおけるトラグラー問題を排除するために,周期的なアグリゲーションを伴う非同期FLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-23T18:57:08Z) - Reinforcement Learning on Computational Resource Allocation of
Cloud-based Wireless Networks [22.06811314358283]
IoT(Internet of Things)に使用される無線ネットワークには、主にクラウドベースのコンピューティングと処理が関与することが期待されている。
クラウド環境では、プロセスのパフォーマンスを維持しながらエネルギーを節約するために、動的計算資源割り当てが不可欠である。
本稿では、この動的計算資源割当問題をマルコフ決定プロセス(MDP)にモデル化し、CPU使用量の動的リソース割当を最適化するためのモデルベース強化学習エージェントを設計する。
その結果, エージェントは最適方針に迅速に収束し, 異なる設定で安定して動作し, 性能が良く, あるいは少なくとも等しく動作し, 異なるシナリオでの省エネにおけるベースラインアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-10-10T15:16:26Z) - Deep Generative Models that Solve PDEs: Distributed Computing for
Training Large Data-Free Models [25.33147292369218]
科学機械学習(SciML)の最近の進歩は、複雑な偏微分方程式(PDE)を解く新しいニューラルネットワークアーキテクチャを訓練する可能性を開く。
本稿では、これらの大規模SciMLモデルをトレーニングする2つの課題を解決するために、データ並列分散ディープラーニングのためのソフトウェアフレームワークについて報告する。
私たちのフレームワークは、(a)プロセス数に依存しない損失整合性、(b)同期バッチ正規化、(c)分散高階最適化方法など、いくつかのアウトオブボックス機能を提供します。
論文 参考訳(メタデータ) (2020-07-24T22:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。