論文の概要: Security Risks Due to Data Persistence in Cloud FPGA Platforms
- arxiv url: http://arxiv.org/abs/2408.10374v1
- Date: Mon, 19 Aug 2024 19:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 17:53:16.038497
- Title: Security Risks Due to Data Persistence in Cloud FPGA Platforms
- Title(参考訳): クラウドFPGAプラットフォームにおけるデータ永続化によるセキュリティリスク
- Authors: Zhehang Zhang, Bharadwaj Madabhushi, Sandip Kundu, Russell Tessier,
- Abstract要約: DDR4 DRAMは、割り当てられたノードからのユーザログアウト後に自動的にクリアされないことを示す。
この問題はFPGAマルチテナンシをサポートするシステムに特に関係している。
- 参考スコア(独自算出の注目度): 0.3961279440272763
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The integration of Field Programmable Gate Arrays (FPGAs) into cloud computing systems has become commonplace. As the operating systems used to manage these systems evolve, special consideration must be given to DRAM devices accessible by FPGAs. These devices may hold sensitive data that can become inadvertently exposed to adversaries following user logout. Although addressed in some cloud FPGA environments, automatic DRAM clearing after process termination is not automatically included in popular FPGA runtime environments nor in most proposed cloud FPGA hypervisors. In this paper, we examine DRAM data persistence in AMD/Xilinx Alveo U280 nodes that are part of the Open Cloud Testbed (OCT). Our results indicate that DDR4 DRAM is not automatically cleared following user logout from an allocated node and subsequent node users can easily obtain recognizable data from the DRAM following node reallocation over 17 minutes later. This issue is particularly relevant for systems which support FPGA multi-tenancy.
- Abstract(参考訳): FPGA(Field Programmable Gate Array)のクラウドコンピューティングシステムへの統合が一般的になっている。
これらのシステムを管理するために使用されるオペレーティングシステムが進化するにつれて、FPGAでアクセス可能なDRAMデバイスに特別な配慮が求められる。
これらのデバイスは、ユーザのログアウト後に敵に不注意に露出する可能性のある機密データを保持できる。
いくつかのクラウドFPGA環境では対処されているが、プロセス終了後の自動DRAMクリアは、一般的なFPGA実行環境や、最も提案されているクラウドFPGAハイパーバイザには自動的に含まれていない。
本稿では,Open Cloud Testbed (OCT) の一部であるAMD/Xilinx Alveo U280ノードにおけるDRAMデータの永続性について検討する。
以上の結果から,DDR4 DRAMは割り当てられたノードからのユーザログアウト後に自動的にクリアされることはなく,その後のノードユーザは17分以上後にDRAMから認識可能なデータを容易に取得できることが示唆された。
この問題はFPGAマルチテナンシをサポートするシステムに特に関係している。
関連論文リスト
- Hacking the Fabric: Targeting Partial Reconfiguration for Fault Injection in FPGA Fabrics [2.511032692122208]
本稿では,FPGA再構成の過程において,部分ビットストリームに持続的障害注入を生じさせる新しいフォールト攻撃手法を提案する。
この攻撃は電力浪費を利用しており、リコンフィグレーションマネージャを通じてFPGAにロードされるときにビットストリームに障害を注入する。
論文 参考訳(メタデータ) (2024-10-21T20:40:02Z) - FAMOUS: Flexible Accelerator for the Attention Mechanism of Transformer on UltraScale+ FPGAs [0.0]
Transformer Neural Network(TNN)は、自然言語処理(NLP)、機械翻訳、コンピュータビジョン(CV)など、幅広いアプリケーション領域に応用されている。
本稿では、フィールドプログラマブルゲートアレイ(FPGA)上でのTNNの重み付きマルチヘッドアテンション計算のためのフレキシブルハードウェアアクセラレータである textitFamous を提案する。
並列性を改善し、レイテンシを低減するために、処理要素とオンチップメモリの高利用に最適化されている。
論文 参考訳(メタデータ) (2024-09-21T05:25:46Z) - Memory Scraping Attack on Xilinx FPGAs: Private Data Extraction from Terminated Processes [0.0]
Stratix 10 FPGAは、TitanX Pascal GPUのパフォーマンスの90%を達成でき、電力の50%未満を消費する。
これによりFPGAは、機械学習(ML)ワークロードの高速化に魅力的な選択肢になります。
しかしながら,既存のXilinx FPGAベースのハードウェアアクセラレーションソリューションでは,プライバシとセキュリティ上の脆弱性が検出されている。
論文 参考訳(メタデータ) (2024-05-22T18:58:20Z) - Embedded FPGA Developments in 130nm and 28nm CMOS for Machine Learning in Particle Detector Readout [0.7367855181841242]
フィールドプログラマブルゲートアレイ(eFPGA)技術は、アプリケーション固有の集積回路(ASIC)の設計における再構成可能なロジックの実装を可能にする
FABulous"と呼ばれるオープンソースのフレームワークは、130nmと28nmのCMOS技術ノードを用いたeFPGAの設計に使用された。
ソースにおけるセンサデータの削減のために設計された機械学習ベースの分類器を合成し、eFPGA上に構成した。
論文 参考訳(メタデータ) (2024-04-26T20:59:23Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Understanding the Potential of FPGA-Based Spatial Acceleration for Large Language Model Inference [11.614722231006695]
数十億のパラメータを誇った大規模言語モデル(LLM)は、推論ワークロードの効率的なデプロイに対する大きな需要を生み出している。
本稿では,FPGA上でのLLM推論におけるモデル固有空間加速度の実現可能性と可能性について検討する。
論文 参考訳(メタデータ) (2023-12-23T04:27:06Z) - Communication-Efficient Graph Neural Networks with Probabilistic
Neighborhood Expansion Analysis and Caching [59.8522166385372]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングと推論は、GNNの登場以来活発に研究されている。
本稿では,分散環境におけるノードワイドサンプリングを用いたGNNによるミニバッチ学習と推論について述べる。
分割された特徴データを扱うために,従来のSALIENTシステムを拡張したSALIENT++を提案する。
論文 参考訳(メタデータ) (2023-05-04T21:04:01Z) - Monitoring ROS2: from Requirements to Autonomous Robots [58.720142291102135]
本稿では,構造化自然言語で記述された要件から自律ロボットのランタイムモニタを生成するための形式的アプローチの概要について述べる。
当社のアプローチでは,Fletal Requirement Elicitation Tool (FRET) とランタイム検証フレームワークであるCopilotを,Ogma統合ツールを通じて統合しています。
論文 参考訳(メタデータ) (2022-09-28T12:19:13Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。