論文の概要: Bridging the Gap: Physical PCI Device Integration Into SystemC-TLM Virtual Platforms
- arxiv url: http://arxiv.org/abs/2505.15590v1
- Date: Wed, 21 May 2025 14:46:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.705832
- Title: Bridging the Gap: Physical PCI Device Integration Into SystemC-TLM Virtual Platforms
- Title(参考訳): ギャップを埋める:SystemC-TLM仮想プラットフォームへの物理PCIデバイス統合
- Authors: Nils Bosbach, Rebecca Pelke, Niko Zurstraßen, Jan Henrik Weinstock, Lukas Jünger, Rainer Leupers,
- Abstract要約: 仮想プラットフォーム(VP)は、未修正のターゲットソフトウェアを初期設計時に実行し、デバッグするためのプラットフォームとして機能する。
VPは、ターゲットソフトウェアが適切な時間内に実行されることを保証するために、高いシミュレーション速度を提供する必要がある。
本稿では,PCIデバイスをSystemC-TLM-2.0ベースのVPに統合するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.16492989697868893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's technology-driven world, early-stage software development and testing are crucial. Virtual Platforms (VPs) have become indispensable tools for this purpose as they serve as a platform to execute and debug the unmodified target software at an early design stage. With the increasing complexity of software, especially in areas like Artificial Intelligence (AI) applications, VPs need to provide high simulation speed to ensure the target software executes within a reasonable time. Hybrid simulation, which combines virtual models with real hardware, can improve the performance of VPs. This paper introduces a novel approach for integrating real Peripheral Component Interconnect (PCI) devices into SystemC-TLM-2.0-based VPs. The embedded PCI devices enable high performance, easy integration, and allow introspection for analysis and optimization. To illustrate the practical application of our approach, we present a case study where we integrate Google Coral's Edge Tensor Processing Unit (TPU) into an ARM-based VP. The integration allows efficient execution of AI workloads, accelerating simulation speeds by up to 480x while eliminating the need for complex virtual device models. Beyond accelerating AI-workload execution, our framework enables driver development, regression testing across architectures, and device communication analysis. Our findings demonstrate that embedding PCI devices into SystemC simulations significantly enhances
- Abstract(参考訳): 今日のテクノロジ駆動の世界では、アーリーステージのソフトウェア開発とテストが重要です。
仮想プラットフォーム(VP)は、未修正のターゲットソフトウェアを初期設計で実行しデバッグするためのプラットフォームとして機能するため、この目的のために欠かせないツールになっている。
ソフトウェアが複雑化する中で、特に人工知能(AI)アプリケーションのような分野において、VPは、ターゲットソフトウェアが適切な時間内に確実に実行されるように、高いシミュレーション速度を提供する必要がある。
仮想モデルと実際のハードウェアを組み合わせたハイブリッドシミュレーションは、VPのパフォーマンスを向上させることができる。
本稿では,PCIデバイスをSystemC-TLM-2.0ベースのVPに統合するための新しいアプローチを提案する。
組み込みPCIデバイスは高い性能と容易な統合を可能にし、分析と最適化のためのイントロスペクションを可能にする。
本稿では,Google CoralのEdge Tensor Processing Unit(TPU)をARMベースのVPに統合するケーススタディを提案する。
この統合により、AIワークロードの効率的な実行が可能になり、シミュレーション速度を最大480倍に向上するとともに、複雑な仮想デバイスモデルの必要性を排除できる。
AIワークロードの実行を加速するだけでなく、私たちのフレームワークは、ドライバの開発、アーキテクチャ間の回帰テスト、デバイス通信分析を可能にします。
以上の結果から,PCI デバイスを SystemC シミュレーションに組み込むことにより,PCI デバイスが大幅に向上することが示唆された。
関連論文リスト
- High-Performance ARM-on-ARM Virtualization for Multicore SystemC-TLM-Based Virtual Platforms [0.16492989697868893]
ARM-on-ARM仮想プラットフォームは、計算集約的なワークロード上の従来の命令セットシミュレータベースのモデルよりも最大10倍のスピードアップを実現している。
命令セットシミュレータのドロップイン代替として使用できるマルチコアのSystemC-TLMベースのCPUモデルを提案する。
論文 参考訳(メタデータ) (2025-05-19T11:21:45Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [59.52058740470727]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - A VM-HDL Co-Simulation Framework for Systems with PCIe-Connected FPGAs [7.519011820592022]
ホストソフトウェアとFPGAハードウェアの共同開発とデバッグは困難である。
ハードウェア設計の変更には、時間がかかるFPGA合成プロセスが必要である。
VM-HDLコミュレーションフレームワークは、ターゲットの物理システムと同じソフトウェア、オペレーティングシステム、ハードウェア設計を実行するように設計されている。
論文 参考訳(メタデータ) (2025-01-19T22:06:36Z) - Accelerating AI and Computer Vision for Satellite Pose Estimation on the Intel Myriad X Embedded SoC [3.829322478948514]
本稿では,インテルのMovidius Myriad Xを用いたハイブリッドAI/CVシステムを構築し,衛星の宇宙ミッションにおける姿勢を初期化・追跡する。
提案したシングルチップ,ロバスト推定,リアルタイムソリューションは,2Wの限られたパワーエンベロープ内で,1メガピクセルのRGB画像に対して最大5FPSのスループットを提供する。
論文 参考訳(メタデータ) (2024-09-19T17:50:50Z) - Automatic Platform Configuration and Software Integration for Software-Defined Vehicles [4.522485108591059]
本稿では,ソフトウェア定義車両(SDV)のプラットフォーム構成とソフトウェア統合を自動化する新しいアプローチを提案する。
モデルベースシステム工学(MBSE)を活用することで,プラットフォーム構成やソフトウェア統合計画を自動的に生成する。
提案システムは,安全要件の遵守を確保しつつ,動的かつ柔軟な資源割り当てを可能にする。
論文 参考訳(メタデータ) (2024-08-04T19:54:03Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Virtualization of Tiny Embedded Systems with a robust real-time capable
and extensible Stack Virtual Machine REXAVM supporting Material-integrated
Intelligent Systems and Tiny Machine Learning [0.0]
本稿では,動作に等価なソフトウェアとハードウェア(FPGA)の実装において,提案するVMアーキテクチャの適合性を示し,評価する。
全体的なアーキテクチャアプローチでは、VMは特にデジタル信号処理と小さな機械学習に対処する。
論文 参考訳(メタデータ) (2023-02-17T17:13:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。