論文の概要: High-Performance ARM-on-ARM Virtualization for Multicore SystemC-TLM-Based Virtual Platforms
- arxiv url: http://arxiv.org/abs/2505.12987v1
- Date: Mon, 19 May 2025 11:21:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.559256
- Title: High-Performance ARM-on-ARM Virtualization for Multicore SystemC-TLM-Based Virtual Platforms
- Title(参考訳): マルチコアシステムC-TLMベースの仮想プラットフォームのための高性能ARM-on-ARM仮想化
- Authors: Nils Bosbach, Rebecca Pelke, Niko Zurstraßen, Jan Henrik Weinstock, Lukas Jünger, Rainer Leupers,
- Abstract要約: ARM-on-ARM仮想プラットフォームは、計算集約的なワークロード上の従来の命令セットシミュレータベースのモデルよりも最大10倍のスピードアップを実現している。
命令セットシミュレータのドロップイン代替として使用できるマルチコアのSystemC-TLMベースのCPUモデルを提案する。
- 参考スコア(独自算出の注目度): 0.16492989697868893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing complexity of hardware and software requires advanced development and test methodologies for modern systems on chips. This paper presents a novel approach to ARM-on-ARM virtualization within SystemC-based simulators using Linux's KVM to achieve high-performance simulation. By running target software natively on ARM-based hosts with hardware-based virtualization extensions, our method eliminates the need for instruction-set simulators, which significantly improves performance. We present a multicore SystemC-TLM-based CPU model that can be used as a drop-in replacement for an instruction-set simulator. It places no special requirements on the host system, making it compatible with various environments. Benchmark results show that our ARM-on-ARM-based virtual platform achieves up to 10 x speedup over traditional instruction-set-simulator-based models on compute-intensive workloads. Depending on the benchmark, speedups increase to more than 100 x.
- Abstract(参考訳): ハードウェアとソフトウェアの複雑さが増大するにつれて、チップ上の現代のシステムのための高度な開発とテストの方法論が必要である。
本稿では,Linux の KVM を用いた SystemC ベースのシミュレータにおける ARM-on-ARM 仮想化への新しいアプローチを提案する。
ハードウェアベースの仮想化拡張を備えたARMベースのホスト上でターゲットソフトウェアをネイティブに実行することにより、命令セットシミュレータの必要性を排除し、性能を大幅に向上する。
命令セットシミュレータのドロップイン代替として使用できるマルチコアのSystemC-TLMベースのCPUモデルを提案する。
ホストシステムに特別な要件はなく、さまざまな環境と互換性がある。
ベンチマークの結果から、ARM-on-ARMベースの仮想プラットフォームは、計算集約的なワークロード上の従来の命令セットシミュレータベースのモデルよりも最大10倍のスピードアップを実現しています。
ベンチマークによっては、スピードアップは100倍以上に増加する。
関連論文リスト
- Tilus: A Virtual Machine for Arbitrary Low-Precision GPGPU Computation in LLM Serving [12.068287973463786]
Serving Large Language Models (LLMs) はAIを利用したアプリケーションには必須だが、かなりの計算資源を必要とする。
低精度の計算が資源消費を減らしながら効率を向上する鍵となる技術として登場した。
低精度カーネルを生成するための既存のアプローチは、2つのパワーを持つウェイトビット幅に限られている。
論文 参考訳(メタデータ) (2025-04-17T14:45:03Z) - oneDAL Optimization for ARM Scalable Vector Extension: Maximizing Efficiency for High-Performance Data Science [1.5672115019395867]
UXLのoneAPI Data Analytics Library(oneDAL)は、MLとデータ分析の高速化に広く採用されている。
しかし、IntelのMath Kernel Library(MKL)への依存は、伝統的にx86プラットフォームに限定してきた。
本稿では、OpenBLASを代替バックエンドとして使用し、アーキテクチャおよびパフォーマンス上の課題を克服する、SVEサポートを備えたOneDALのARMアーキテクチャへの移植について詳述する。
論文 参考訳(メタデータ) (2025-04-05T17:53:36Z) - KGym: A Platform and Dataset to Benchmark Large Language Models on Linux Kernel Crash Resolution [59.20933707301566]
大規模言語モデル(LLM)は、ますます現実的なソフトウェア工学(SE)タスクにおいて一貫して改善されている。
現実世界のソフトウェアスタックでは、Linuxカーネルのような基本的なシステムソフトウェアの開発にSEの取り組みが費やされています。
このような大規模システムレベルのソフトウェアを開発する際にMLモデルが有用かどうかを評価するため、kGymとkBenchを紹介する。
論文 参考訳(メタデータ) (2024-07-02T21:44:22Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Virtualization of Tiny Embedded Systems with a robust real-time capable
and extensible Stack Virtual Machine REXAVM supporting Material-integrated
Intelligent Systems and Tiny Machine Learning [0.0]
本稿では,動作に等価なソフトウェアとハードウェア(FPGA)の実装において,提案するVMアーキテクチャの適合性を示し,評価する。
全体的なアーキテクチャアプローチでは、VMは特にデジタル信号処理と小さな機械学習に対処する。
論文 参考訳(メタデータ) (2023-02-17T17:13:35Z) - PLSSVM: A (multi-)GPGPU-accelerated Least Squares Support Vector Machine [68.8204255655161]
Support Vector Machines (SVM) は機械学習で広く使われている。
しかし、現代的で最適化された実装でさえ、最先端ハードウェア上の大きな非自明な高密度データセットにはうまくスケールしない。
PLSSVMはLVMのドロップイン代替として使用できる。
論文 参考訳(メタデータ) (2022-02-25T13:24:23Z) - Compiler-Driven Simulation of Reconfigurable Hardware Accelerators [0.8807375890824978]
既存のシミュレータは、RTLシミュレーションのような低レベルのアプローチと一般的なアプローチの2つの極端である。
本研究は,ハードウェアアクセラレータをモデル化可能なコンパイラ駆動シミュレーションワークフローを提案する。
論文 参考訳(メタデータ) (2022-02-01T20:31:04Z) - Using Machine Learning at Scale in HPC Simulations with SmartSim: An
Application to Ocean Climate Modeling [52.77024349608834]
We demonstrate the first climate-scale, numerical ocean Simulations improve through distributed, online inference of Deep Neural Networks (DNN) using SmartSim。
SmartSimは、従来のHPCシミュレーションのためのオンライン分析と機械学習(ML)を可能にするためのライブラリです。
論文 参考訳(メタデータ) (2021-04-13T19:27:28Z) - Comparing Popular Simulation Environments in the Scope of Robotics and
Reinforcement Learning [0.0]
選択したシミュレーション環境がシングルコア性能の恩恵を最も受けることを示す。
マルチコアシステムを使用すると、複数のシミュレーションを並列に実行して性能を向上させることができる。
論文 参考訳(メタデータ) (2021-03-08T09:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。