論文の概要: ALARM: Active LeArning of Rowhammer Mitigations
- arxiv url: http://arxiv.org/abs/2211.16942v1
- Date: Wed, 30 Nov 2022 12:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 18:25:42.219598
- Title: ALARM: Active LeArning of Rowhammer Mitigations
- Title(参考訳): ALARM:Rowhammerのリチベーションのアクティブルアーニング
- Authors: Amir Naseredini, Martin Berger, Matteo Sammartino, Shale Xiong
- Abstract要約: Rowhammerは、現代の動的ランダムアクセスメモリ(DRAM)の深刻なセキュリティ問題である
本稿では,現代のDRAMの合成モデルに対して,Rowhammer緩和パラメータを自動的に推論する能動的学習に基づくツールを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rowhammer is a serious security problem of contemporary dynamic random-access
memory (DRAM) where reads or writes of bits can flip other bits. DRAM
manufacturers add mitigations, but don't disclose details, making it difficult
for customers to evaluate their efficacy. We present a tool, based on active
learning, that automatically infers parameter of Rowhammer mitigations against
synthetic models of modern DRAM.
- Abstract(参考訳): Rowhammerは、現在の動的ランダムアクセスメモリ(DRAM)の深刻なセキュリティ問題であり、ビットの読み書きは他のビットを反転させることができる。
DRAM製造業者は軽減策を加えているが、詳細は明らかにしないため、顧客が有効性を評価することは困難である。
本稿では,現代のDRAMの合成モデルに対して,Rowhammer緩和パラメータを自動的に推論する能動的学習に基づくツールを提案する。
関連論文リスト
- MEMORYLLM: Towards Self-Updatable Large Language Models [52.99595594628542]
MEMORYLLMは、テキスト知識を自己更新し、早期に注入された知識を記憶することができる。
このモデルは、我々のカスタム設計評価と長期コンテキストベンチマークによって検証された長期情報保持能力を示す。
論文 参考訳(メタデータ) (2024-02-07T07:14:11Z) - LLM in a flash: Efficient Large Language Model Inference with Limited
Memory [20.515855044180295]
大規模言語モデル(LLM)は現代の自然言語処理の中心であり、様々なタスクにおいて例外的なパフォーマンスを提供する。
本稿では,利用可能なDRAM容量を超えるLLMを効率的に動作させるという課題に対処する。
本手法は,フラッシュメモリの特性を考慮した推論コストモデルの構築を含む。
論文 参考訳(メタデータ) (2023-12-12T18:57:08Z) - One-bit Flip is All You Need: When Bit-flip Attack Meets Model Training [54.622474306336635]
メモリフォールトインジェクション技術を利用したビットフリップ攻撃(BFA)と呼ばれる新たな重み修正攻撃が提案された。
本稿では,高リスクモデルを構築するための訓練段階に敵が関与する,訓練支援ビットフリップ攻撃を提案する。
論文 参考訳(メタデータ) (2023-08-12T09:34:43Z) - Recurrent Memory Decision Transformer [55.41644538483948]
本稿では,リカレントメモリ決定変換器(RMDT)を提案する。
我々は,アタリゲームと MuJoCo 制御問題に関する徹底的な実験を行い,提案モデルが再帰的なメモリ機構を伴わずに,そのモデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-06-15T19:29:08Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - DNN-Defender: An in-DRAM Deep Neural Network Defense Mechanism for
Adversarial Weight Attack [9.85060615138161]
本稿では,DNN(Quantized Deep Neural Networks)に適したDRAMベースの犠牲者中心防御機構について紹介する。
DNN-Defenderは、ターゲットのRowHammer攻撃のパフォーマンスをランダムな攻撃レベルに低下させる高いレベルの保護を提供することができる。
提案されたディフェンスは、ソフトウェアトレーニングや追加のハードウェアオーバーヘッドを必要とせずに、CIFAR-10とImageNetデータセットに精度の低下はない。
論文 参考訳(メタデータ) (2023-05-14T00:30:58Z) - EnforceSNN: Enabling Resilient and Energy-Efficient Spiking Neural
Network Inference considering Approximate DRAMs for Embedded Systems [15.115813664357436]
スパイキングニューラルネットワーク(SNN)は、教師なし設定下で高い精度と低い運用電力/エネルギーを達成する能力を示している。
本稿では、低電圧DRAMを用いたレジリエンスおよびエネルギー効率の高いSNN推論のためのソリューションを提供する新しい設計フレームワークであるEnforceSNNを提案する。
論文 参考訳(メタデータ) (2023-04-08T15:15:11Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Learning to Rank Graph-based Application Objects on Heterogeneous
Memories [0.0]
本稿では,アプリケーションの性能に最も影響を与えるアプリケーションオブジェクトを識別し,特徴付ける手法について述べる。
予測モデルを用いてデータ配置を行うことで,ベースラインのアプローチと比較して,実行時間の劣化を12% (平均) および30% (最大) 削減することができる。
論文 参考訳(メタデータ) (2022-11-04T00:20:31Z) - SparkXD: A Framework for Resilient and Energy-Efficient Spiking Neural
Network Inference using Approximate DRAM [15.115813664357436]
スパイキングニューラルネットワーク(SNN)は、生物学的に疎い計算のために低エネルギー消費を達成する可能性がある。
いくつかの研究により、オフチップメモリ(DRAM)アクセスがSNN処理において最もエネルギー消費が大きいことが示されている。
我々は、回復力とエネルギー効率のよいSNN推論のための包括的コンジョイントソリューションを提供する新しいフレームワークSparkXDを提案する。
論文 参考訳(メタデータ) (2021-02-28T08:12:26Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。