論文の概要: MAD: Memory Allocation meets Software Diversity
- arxiv url: http://arxiv.org/abs/2603.10840v1
- Date: Wed, 11 Mar 2026 14:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.006347
- Title: MAD: Memory Allocation meets Software Diversity
- Title(参考訳): MAD: メモリ割り当てはソフトウェアの多様性を満たす
- Authors: Manuel Wiesinger, Daniel Dorfmeister, Stefan Brunthaler,
- Abstract要約: DRAMエラーから発せられる脆弱性は、未解決かつ解き放たれたままの悪質な問題を引き起こす。
以前の防衛は、初期のRowHammer攻撃の具体的な詳細に焦点を当てていたが、最近のRowHammer攻撃の一般化で一般化できなかった。
作業は継続していますが、メモリ割り当てとソフトウェア多様性の基礎となる原則を組み合わせた新しいアプローチを特定しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vulnerabilities emanating from DRAM errors pose a vexing problem that remains, as of yet, unsolved and elusive but cannot be ignored. Prior defenses focused on specific details of early RowHammer attacks and fail to generalize with the generalizations of recent RowHammer attacks. Even worse, it is presently not clear that techniques from prior defenses will be able to cope with these generalizations or if an entirely new approach is required. Although still work-in-progress, we have identified a new approach that combines memory allocation with principles underlying software diversity and shows promising early results. At first glance, software diversity seems to be an unlikely contender, since it faces seemingly insurmountable obstacles, primarily the lack of sufficient entropy in memory subsystems. Our system - called MAD, short for memory allocation diversity - leverages two novel, complementary spatial diversification techniques to overcome this entropy obstacle. Entropy aside, MAD offers ease-of-implementation, negligible performance impact, and is both hardware and software agnostic. From a security perspective, MAD's goal is to deter RowHammer attacks by delaying them to the maximum extent possible. Such a delay opens the door for a variety of additional responses, e.g., proactive rebooting, or complementary in-depth analysis of ongoing attacks that would be too slow for an always-on defense.
- Abstract(参考訳): DRAMエラーから発せられる脆弱性は、まだ未解決であり、解き放つが無視できないような悪質な問題を引き起こす。
以前の防衛は、初期のRowHammer攻撃の具体的な詳細に焦点を当てていたが、最近のRowHammer攻撃の一般化で一般化できなかった。
さらに悪いことに、従来の防衛技術がこれらの一般化に対処できるのか、全く新しいアプローチが必要なのかは、現時点では明らかになっていない。
作業は継続していますが、メモリ割り当てとソフトウェア多様性の基礎となる原則を組み合わせて、有望な早期結果を示す新しいアプローチを特定しました。
一見したところ、ソフトウェア多様性は、一見すると不可能な障害に直面しているように見えるため、おそらくは、メモリサブシステムに十分なエントロピーが欠如している。
メモリ割り当ての多様性を短縮したMADと呼ばれる我々のシステムは、このエントロピー障害を克服するために、2つの新しい空間的多様化技術を活用している。
エントロピーは別として、MADは実装の容易さ、無視可能なパフォーマンスへの影響を提供し、ハードウェアとソフトウェアの両方に依存しない。
セキュリティの観点から、MADの目標は、RowHammer攻撃を可能な限り遅くすることで阻止することである。
このような遅延は、例えば、アクティブ再起動や、常時オンの防御には遅すぎる攻撃の詳細な分析など、様々な追加の応答の扉を開く。
関連論文リスト
- From Verbatim to Gist: Distilling Pyramidal Multimodal Memory via Semantic Information Bottleneck for Long-Horizon Video Agents [78.30630000529133]
本稿ではファジィトレース理論に基づくピラミッド型マルチモーダルメモリアーキテクチャMM-Memを提案する。
MM-Memメモリは階層的に感覚バッファ、エピソードストリーム、シンボリックに構造する。
実験により、MM-Memがオフラインタスクとストリーミングタスクの両方で有効であることが確認された。
論文 参考訳(メタデータ) (2026-03-02T05:12:45Z) - Rethinking Latency Denial-of-Service: Attacking the LLM Serving Framework, Not the Model [12.046157489400457]
大規模言語モデルは、レイテンシーアタックとして知られる、新しくて重要な脅威に直面します。
推論は本質的に高価であるため、控えめなスローダウンでさえ、相当な運用コストと深刻な可用性リスクに変換される可能性がある。
本研究では,スケジューラの状態遷移をターゲットとした新たなFill and Squeeze攻撃戦略を提案する。
論文 参考訳(メタデータ) (2026-02-08T09:05:54Z) - Jailbreaking LLMs Without Gradients or Priors: Effective and Transferable Attacks [22.52730333160258]
RAILSは,モデルロジットのみで動作するフレームワークである。
RAILSは勾配依存を排除し、クロストケナイザーアンサンブル攻撃を可能にする。
RAILSは、複数のオープンソースモデルで100%近い成功率と、GPTやGeminiのようなクローズドソースシステムへの高いブラックボックス攻撃転送性を実現している。
論文 参考訳(メタデータ) (2026-01-06T21:14:13Z) - Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - EvA: Evolutionary Attacks on Graphs [50.13398588415462]
グラフ構造のわずかな堅牢性でさえも、グラフニューラルネットワーク(GNN)の精度を著しく低下させる可能性がある。
本稿では、離散最適化問題を直接解くために、進化的アルゴリズムの単純かつ効果的な拡張をいくつか導入する。
実験の結果、EvAは前回の攻撃に比べ平均で11%の精度低下を示した。
論文 参考訳(メタデータ) (2025-07-10T22:50:58Z) - Understanding and Mitigating Covert Channel and Side Channel Vulnerabilities Introduced by RowHammer Defenses [6.985663637639889]
我々は、RowHammerディフェンスによって引き起こされたメモリレイテンシの違いを利用して通信チャネルを確立し、シークレットをリークする新しいタイプの攻撃であるLeakyHammerを紹介します。
以上の結果から,LeakyHammerの緩和はRowHammerの高負荷システムにおいて大きな性能上のオーバーヘッドを引き起こすことが示唆された。
論文 参考訳(メタデータ) (2025-03-23T00:26:47Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。