論文の概要: Sudoku: Decomposing DRAM Address Mapping into Component Functions
- arxiv url: http://arxiv.org/abs/2506.15918v1
- Date: Wed, 18 Jun 2025 23:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.883299
- Title: Sudoku: Decomposing DRAM Address Mapping into Component Functions
- Title(参考訳): Sudoku:DRAMアドレスマッピングをコンポーネント関数に分解する
- Authors: Minbok Wi, Seungmin Baek, Seonyong Park, Mattan Erez, Jung Ho Ahn,
- Abstract要約: DRAMアドレスマッピングをコンポーネントレベルの関数に分解することは、メモリの振る舞いを理解し、正確なRowHammer攻撃を可能にするために重要である。
DRAMリフレッシュ間隔と連続的なアクセス遅延を利用して、コンポーネント固有の関数を推論する新しいタイミングベース手法を提案する。
列ビットと列ビットを識別しながら、チャネル、ランク、銀行グループ、銀行機能への完全なDRAMアドレスマッピングを自動的に分解する、初めてのソフトウェアベースのツールであるSudokuを紹介する。
- 参考スコア(独自算出の注目度): 1.5452318623316106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decomposing DRAM address mappings into component-level functions is critical for understanding memory behavior and enabling precise RowHammer attacks, yet existing reverse-engineering methods fall short. We introduce novel timing-based techniques leveraging DRAM refresh intervals and consecutive access latencies to infer component-specific functions. Based on this, we present Sudoku, the first software-based tool to automatically decompose full DRAM address mappings into channel, rank, bank group, and bank functions while identifying row and column bits. We validate Sudoku's effectiveness, successfully decomposing mappings on recent Intel and AMD processors.
- Abstract(参考訳): DRAMアドレスマッピングをコンポーネントレベルの関数に分解することは、メモリの振る舞いを理解し、正確なRowHammer攻撃を可能にするために重要であるが、既存のリバースエンジニアリングメソッドは不足している。
DRAMリフレッシュ間隔と連続的なアクセス遅延を利用して、コンポーネント固有の関数を推論する新しいタイミングベース手法を提案する。
そこで我々は,列ビットと列ビットを識別しながら,チャネル,ランク,銀行グループ,銀行機能への完全なDRAMアドレスマッピングを自動的に分解する,初めてのソフトウェアベースのツールであるSudokuを提案する。
我々は、最近のIntelおよびAMDプロセッサ上でのマッピングの分解に成功し、Sudokuの有効性を検証する。
関連論文リスト
- Revisiting DRAM Read Disturbance: Identifying Inconsistencies Between Experimental Characterization and Device-Level Studies [6.994584169884799]
本研究では,RowHammerとRowPressのキービットフリップ特性をデバイスレベルのエラー機構から同定し,抽出する。
我々はRowHammerとRowPressのビットフリップ方向の基本的な矛盾と、実験結果とデバイスレベルのエラー機構のアクセスパターン依存性を見出した。
論文 参考訳(メタデータ) (2025-03-20T23:40:33Z) - Mini-Sequence Transformer: Optimizing Intermediate Memory for Long Sequences Training [78.93900796545523]
ミニシーケンス変換器(Mini-Sequence Transformer, MsT)は、非常に長いシーケンスを持つ高速かつ高精度なLLMトレーニング手法である。
MsTは入力シーケンスを分割し、中間メモリ使用量を減らすためにミニシーケンスを反復的に処理する。
huggingfaceライブラリと統合され、MsTはQwen、Mistral、Gemma-2の最大コンテキスト長を12-24倍に拡張した。
論文 参考訳(メタデータ) (2024-07-22T01:52:30Z) - DRAMScope: Uncovering DRAM Microarchitecture and Characteristics by Issuing Memory Commands [6.863346979406863]
本稿では,コモディティDRAMチップの微細構造とその動作誘起ビットフリップ(AIB)特性への影響について述べる。
正確で効率的なリバースエンジニアリングのために、AIB、保持時間テスト、そしてクロスバリデーション可能なRowCopyという3つのツールを使用します。
これまでに知られていなかったAIBの脆弱性を特定し、シンプルで効果的な保護ソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-03T22:10:21Z) - RelayAttention for Efficient Large Language Model Serving with Long System Prompts [59.50256661158862]
本稿では,長いシステムプロンプトを含むLCMサービスの効率を向上させることを目的とする。
これらのシステムプロンプトの処理には、既存の因果注意アルゴリズムにおいて、大量のメモリアクセスが必要である。
本稿では,DRAMから入力トークンのバッチに対して,DRAMから隠れた状態を正確に1回読み取ることのできるアテンションアルゴリズムであるRelayAttentionを提案する。
論文 参考訳(メタデータ) (2024-02-22T18:58:28Z) - Topology-aware Embedding Memory for Continual Learning on Expanding Networks [63.35819388164267]
本稿では,メモリリプレイ技術を用いて,メモリ爆発問題に対処する枠組みを提案する。
Topology-aware Embedding Memory (TEM) を用いたPDGNNは最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-01-24T03:03:17Z) - Self-Managing DRAM: A Low-Cost Framework for Enabling Autonomous and Efficient in-DRAM Operations [7.663876942368506]
本稿では,自律的なDRAM保守操作を可能にする,低コストなDRAMアーキテクチャであるSelf-Managing DRAM(SMD)を提案する。
SMDは、メモリコントローラからチップへのメンテナンス操作を制御する責任を負う。
DDRxインタフェースに新しいピンを追加することなく、低レイテンシで実装可能であることを示す。
論文 参考訳(メタデータ) (2022-07-27T08:27:10Z) - FlashAttention: Fast and Memory-Efficient Exact Attention with
IO-Awareness [80.3586155104237]
FlashAttentionは、トランスフォーマーのためのIO対応の正確な注意アルゴリズムである。
これにより、GPU高帯域メモリ(HBM)とGPUオンチップ間のメモリ読み込み/書き込み数を削減できる。
FlashAttentionとブロックスパース FlashAttentionは、トランスフォーマーのコンテキストを長くすることを可能にする。
論文 参考訳(メタデータ) (2022-05-27T17:53:09Z) - Encoding-based Memory Modules for Recurrent Neural Networks [79.42778415729475]
本稿では,リカレントニューラルネットワークの設計とトレーニングの観点から,記憶サブタスクについて考察する。
本稿では,線形オートエンコーダを組み込んだエンコーディングベースのメモリコンポーネントを特徴とする新しいモデルであるLinear Memory Networkを提案する。
論文 参考訳(メタデータ) (2020-01-31T11:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。