論文の概要: MC3: Memory Contention based Covert Channel Communication on Shared DRAM System-on-Chips
- arxiv url: http://arxiv.org/abs/2412.05228v1
- Date: Fri, 06 Dec 2024 17:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:54:50.809195
- Title: MC3: Memory Contention based Covert Channel Communication on Shared DRAM System-on-Chips
- Title(参考訳): MC3:共有DRAMシステムオンチップ上でのメモリコンテントに基づく被覆チャネル通信
- Authors: Ismet Dagli, James Crea, Soner Seckiner, Yuanchao Xu, Selçuk Köse, Mehmet E. Belviranli,
- Abstract要約: 我々は,新しいメモリ保持型秘密通信攻撃MC3を導入する。
システムへのLLCや高機能アクセスを必要とせずに、CPUとGPU上で動作するアプリケーション間の高いスループット通信を実現する。
NVIDIA Orin AGX, Orin NX, Orin Nano における MC3 の有用性を 1% 以下の6.4 kbps の伝送速度で実証した。
- 参考スコア(独自算出の注目度): 1.369703525384921
- License:
- Abstract: Shared-memory system-on-chips (SM-SoC) are ubiquitously employed by a wide-range of mobile computing platforms, including edge/IoT devices, autonomous systems and smartphones. In SM-SoCs, system-wide shared physical memory enables a convenient and financially-feasible way to make data accessible by dozens of processing units (PUs), such as CPU cores and domain specific accelerators. In this study, we investigate vulnerabilities that stem from the shared use of physical memory in such systems. Due to the diverse computational characteristics of the PUs they embed, SM-SoCs often do not employ a shared last level cache (LLC). While the literature proposes covert channel attacks for shared memory systems, high-throughput communication is currently possible by either relying on an LLC or privileged/physical access to the shared memory subsystem. In this study, we introduce a new memory-contention based covert communication attack, MC3, which specifically targets the shared system memory in mobile SoCs. Different from existing attacks, our approach achieves high throughput communication between applications running on CPU and GPU without the need for an LLC or elevated access to the system. We extensively explore the effectiveness of our methodology by demonstrating the trade-off between the channel transmission rate and the robustness of the communication. We demonstrate the utility of MC3 on NVIDIA Orin AGX, Orin NX, and Orin Nano up to a transmit rate of 6.4 kbps with less than 1% error rate.
- Abstract(参考訳): 共有メモリシステムオンチップ(SM-SoC)は、エッジ/IoTデバイス、自律システム、スマートフォンなど、幅広いモバイルコンピューティングプラットフォームで広く使用されている。
SM-SoCでは、CPUコアやドメイン固有のアクセラレータなど、数十の処理ユニット(PU)によってデータにアクセスできるようにするため、システム全体で共有される物理メモリが便利かつ経済的に実現可能である。
本研究では,このようなシステムにおける物理メモリの共有利用に起因する脆弱性について検討する。
組み込みPUの様々な計算特性のため、SM-SoCは共有最終レベルキャッシュ(LLC)を使用しないことが多い。
文献では共有メモリシステムに対する秘密チャネル攻撃が提案されているが、現在、高スループット通信はLLCに依存するか、共有メモリサブシステムへの特権的/物理的アクセスによって可能である。
本研究では,モバイル SoC における共有システムメモリを対象とする新しいメモリ保持型秘密通信攻撃 MC3 を提案する。
既存の攻撃とは違って,システムへのLLCや高機能アクセスを必要とせずに,CPUとGPU上で動作するアプリケーション間の高スループット通信を実現する。
本稿では,チャネル伝達率と通信の堅牢性とのトレードオフを実証することにより,方法論の有効性を広く検討する。
NVIDIA Orin AGX, Orin NX, Orin Nano における MC3 の有用性を 1% 以下の6.4 kbps の伝送速度で実証した。
関連論文リスト
- Stochastic Communication Avoidance for Recommendation Systems [27.616664288148232]
本稿では,ルックアップテーブルを用いた任意の分散システムの通信コストを解析する理論的枠組みを提案する。
本稿では,メモリ,計算,通信制約を考慮したスループットを最大化するアルゴリズムを提案する。
フレームワークとアルゴリズムをPyTorchで実装し、ベースラインを越えたGPUシステムのトレーニングスループットを最大6倍に向上します。
論文 参考訳(メタデータ) (2024-11-03T15:37:37Z) - MeMoir: A Software-Driven Covert Channel based on Memory Usage [7.424928818440549]
MeMoirはソフトウェア駆動のサーキットチャネルで、初めてメモリ使用量をチャネルの媒体として利用する。
我々は、システム内に攻撃が存在するかどうかを95%以上の精度で予測できる機械学習ベースの検出器を実装した。
本稿では,システム内の低電力オーバーヘッドを誘導しながら,攻撃を効果的に軽減するノイズベース対策を提案する。
論文 参考訳(メタデータ) (2024-09-20T08:10:36Z) - vTensor: Flexible Virtual Tensor Management for Efficient LLM Serving [53.972175896814505]
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
大規模言語モデル(LLM)は様々なドメインで広く使われ、数百万の日次要求を処理する。
論文 参考訳(メタデータ) (2024-07-22T14:37:58Z) - Amplifying Main Memory-Based Timing Covert and Side Channels using Processing-in-Memory Operations [6.709670986126109]
本稿では,PIM(Processing-in-Memory)ソリューションが,悪質なユーザアプリケーションが悪用できるメインメモリに直接アクセスする新しい方法を提供することを示す。
本稿では,ハイスループットな主メモリベースのタイミングアタックであるIMPACTを導入し,PiMアーキテクチャの特性を活用して秘密チャネルとサイドチャネルを確立する。
以上の結果から,我々はそれぞれ12.87 Mb/s,14.16 Mb/sの通信スループットを達成できた。
論文 参考訳(メタデータ) (2024-04-17T11:48:14Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - Shared Memory-contention-aware Concurrent DNN Execution for Diversely
Heterogeneous System-on-Chips [0.32634122554914]
HaX-CoNNは、推論ワークロードの同時実行においてレイヤを特徴付け、マップする新しいスキームである。
NVIDIA Orin,NVIDIA Xavier,Qualcomm Snapdragon 865 SOC上でHaX-CoNNを評価した。
論文 参考訳(メタデータ) (2023-08-10T22:47:40Z) - Asynchronous Parallel Incremental Block-Coordinate Descent for
Decentralized Machine Learning [55.198301429316125]
機械学習(ML)は、巨大なIoT(Internet of Things)ベースのインテリジェントでユビキタスなコンピューティングのビッグデータ駆動モデリングと分析のための重要なテクニックである。
急成長するアプリケーションやデータ量にとって、分散学習は有望な新興パラダイムである。
本稿では,多くのユーザデバイスに分散した分散システム上でMLモデルをトレーニングする問題について検討する。
論文 参考訳(メタデータ) (2022-02-07T15:04:15Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Reconfigurable Low-latency Memory System for Sparse Matricized Tensor
Times Khatri-Rao Product on FPGA [3.4870723728779565]
Sparse Matricized Times Khatri-Rao Product (MTTKRP) はテンソル計算において最も高価なカーネルの一つである。
本稿では,MTTKRPのデータ構造の空間的および時間的局所性を探索する多面記憶システムについて述べる。
本システムでは,キャッシュオンリーとDMAオンリーのメモリシステムと比較して,2倍,1.26倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-09-18T08:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。