論文の概要: GPUHammer: Rowhammer Attacks on GPU Memories are Practical
- arxiv url: http://arxiv.org/abs/2507.08166v1
- Date: Thu, 10 Jul 2025 20:57:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.174856
- Title: GPUHammer: Rowhammer Attacks on GPU Memories are Practical
- Title(参考訳): GPUHammer:GPUメモリに対するRowhammer攻撃は実用的
- Authors: Chris S. Lin, Joyce Qu, Gururaj Saileshwar,
- Abstract要約: 離散GPUに対する最初のRowhammer攻撃を実演する。
攻撃者がこれをMLモデルに改ざんして、相当な精度の低下(最大80%)を引き起こす方法を示している。
また、攻撃者がこれをMLモデルを改ざんするために使う方法を示し、精度の低下(最大80%)を引き起こす。
- 参考スコア(独自算出の注目度): 3.3625059118072107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rowhammer is a read disturbance vulnerability in modern DRAM that causes bit-flips, compromising security and reliability. While extensively studied on Intel and AMD CPUs with DDR and LPDDR memories, its impact on GPUs using GDDR memories, critical for emerging machine learning applications, remains unexplored. Rowhammer attacks on GPUs face unique challenges: (1) proprietary mapping of physical memory to GDDR banks and rows, (2) high memory latency and faster refresh rates that hinder effective hammering, and (3) proprietary mitigations in GDDR memories, difficult to reverse-engineer without FPGA-based test platforms. We introduce GPUHammer, the first Rowhammer attack on NVIDIA GPUs with GDDR6 DRAM. GPUHammer proposes novel techniques to reverse-engineer GDDR DRAM row mappings, and employs GPU-specific memory access optimizations to amplify hammering intensity and bypass mitigations. Thus, we demonstrate the first successful Rowhammer attack on a discrete GPU, injecting up to 8 bit-flips across 4 DRAM banks on an NVIDIA A6000 with GDDR6 memory. We also show how an attacker can use these to tamper with ML models, causing significant accuracy drops (up to 80%).
- Abstract(参考訳): Rowhammerは、現代のDRAMにおける読み取り障害の脆弱性であり、ビットフリップを引き起こし、セキュリティと信頼性を損なう。
DDRとLDDDRメモリを備えたIntelとAMD CPUで広く研究されているが、GDDRメモリを使用したGPUへの影響は、新興機械学習アプリケーションにとって重要なものだが、まだ解明されていない。
1 物理メモリをGDDRバンクや行にプロプライエタリにマッピングすること、2 メモリのレイテンシと高速なリフレッシュレートによって効果的なハンマーが妨げられること、3 GDDRメモリのプロプライエタリな緩和、FPGAベースのテストプラットフォームなしではリバースエンジニアリングが難しいこと。
GDDR6 DRAMを使用したNVIDIA GPUに対する最初のRowhammer攻撃であるGPUHammerを紹介する。
GPUHammerは、逆エンジニアリングのGDDR DRAM行マッピングのための新しい技術を提案し、GPU固有のメモリアクセス最適化を使用して、ハンマーの強度を増幅し、緩和をバイパスする。
そこで我々は,GDDR6メモリを搭載したNVIDIA A6000上で,4つのDRAMバンクに最大8ビットフリップを注入し,Rowhammerによる離散GPUに対する最初の攻撃を実演した。
また、攻撃者がこれをMLモデルを改ざんするために使う方法を示し、精度の低下(最大80%)を引き起こす。
関連論文リスト
- GPU in the Blind Spot: Overlooked Security Risks in Transportation [3.3296812191509786]
この記事では、輸送サイバーセキュリティにおける重要な盲点として、GPUセキュリティを強調します。
この懸念をサポートするために、重要なAIワークロードに対するステルスな不正暗号マイナーの影響を示すケーススタディも提示されている。
論文 参考訳(メタデータ) (2025-08-04T02:25:43Z) - Minute-Long Videos with Dual Parallelisms [57.22737565366549]
Diffusion Transformer (DiT)ベースのビデオ拡散モデルは、大規模に高品質なビデオを生成するが、長いビデオの処理遅延とメモリコストは禁じられている。
我々はDualParalと呼ばれる新しい分散推論戦略を提案する。
1つのGPUでビデオ全体を生成する代わりに、時間フレームとモデルレイヤの両方をGPU間で並列化します。
論文 参考訳(メタデータ) (2025-05-27T11:55:22Z) - GPUMC: A Stateless Model Checker for GPU Weak Memory Concurrency [3.1882747895372217]
GPUMCは、スコープドRC11弱いメモリモデルの下でGPU共有メモリプログラムの正しさをチェックするステートレスモデルチェッカーである。
ベンチマークとリアルタイムGPUプログラムを用いてGPUMCを評価する。
論文 参考訳(メタデータ) (2025-05-26T16:47:44Z) - Characterizing GPU Resilience and Impact on AI/HPC Systems [5.4879032865205986]
本研究では,大規模AIシステムデルタHPCにおけるGPUレジリエンスを特徴付ける。
2.5年間の運用データ(1170万GPU時間)をGPUエラーに使用しました。
論文 参考訳(メタデータ) (2025-03-14T22:14:18Z) - Mind the Memory Gap: Unveiling GPU Bottlenecks in Large-Batch LLM Inference [4.497936996651617]
大規模言語モデルは様々なタスクに広く採用されているが、その自己回帰的な性質は推論時に非効率な資源利用につながることが多い。
本稿では、GPUレベルの詳細な分析を通して、大バッチ推論がメモリバウンドのままであり、ほとんどのGPU計算能力は未利用であることを示す。
論文 参考訳(メタデータ) (2025-03-11T11:21:35Z) - HeadInfer: Memory-Efficient LLM Inference by Head-wise Offloading [79.38548165722229]
HEADINFERはKVキャッシュをCPURAMにオフロードするが、GPU上のトランスフォーマー層のKVキャッシュを完全に保存する必要はない。
HEADINFERはメモリフットプリントを大幅に削減し,計算効率を向上することを示した。
論文 参考訳(メタデータ) (2025-02-18T06:26:05Z) - NeRF-XL: Scaling NeRFs with Multiple GPUs [72.75214892939411]
我々は、複数のGPUにまたがるニューラルラジアンス場(NeRF)を分散する原理的手法であるNeRF-XLを提案する。
パラメータ数を大きくして再構成品質を向上し,GPUの高速化を実現した。
我々は,25km2の都市部をカバーする258K画像を含む,これまでで最大規模のオープンソースデータセットMatrixCityを含む,さまざまなデータセットに対するNeRF-XLの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-24T21:43:15Z) - LLMem: Estimating GPU Memory Usage for Fine-Tuning Pre-Trained LLMs [4.536118764799076]
ハードウェアに制限がある微調整済みの大規模言語モデルでは、GPUメモリの制約が問題となっている。
LLMemは、分散微調整法を適用する際のGPUメモリ消費を推定するソリューションである。
LLMemは1つのGPU上でのピークGPUメモリ使用量を正確に推定し、エラー率は最大1.6%であることを示す。
論文 参考訳(メタデータ) (2024-04-16T22:11:35Z) - AI and Memory Wall [81.06494558184049]
メモリ帯域幅がデコーダモデルの主要なボトルネックとなることを示す。
私たちは、このメモリ制限を克服するためのモデルアーキテクチャ、トレーニング、デプロイメント戦略の再設計を主張します。
論文 参考訳(メタデータ) (2024-03-21T04:31:59Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - EVEREST: Efficient Masked Video Autoencoder by Removing Redundant Spatiotemporal Tokens [57.354304637367555]
ビデオ表現学習のための驚くほど効率的なMVAアプローチであるEVERESTを提案する。
リッチなモーション特徴を含むトークンを発見し、事前トレーニングと微調整の両方の間、非形式的なトークンを破棄する。
提案手法は,MVAの計算とメモリ要求を大幅に低減する。
論文 参考訳(メタデータ) (2022-11-19T09:57:01Z) - An Analysis of Collocation on GPUs for Deep Learning Training [0.0]
マルチインスタンスGPU(MIG)はNVIDIAが導入した新しい技術で、GPUをより良いワークロードに分割することができる。
本稿では,MIG対応A100 GPUの各種サイズとモデルの組み合わせを含むディープラーニングワークロードにおける性能について検討する。
論文 参考訳(メタデータ) (2022-09-13T14:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。