論文の概要: Reverse Engineering the Apple M1 Conditional Branch Predictor for Out-of-Place Spectre Mistraining
- arxiv url: http://arxiv.org/abs/2502.10719v1
- Date: Sat, 15 Feb 2025 08:22:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:08:05.181274
- Title: Reverse Engineering the Apple M1 Conditional Branch Predictor for Out-of-Place Spectre Mistraining
- Title(参考訳): Apple M1条件分岐予測器の逆エンジニアリング
- Authors: Adam Tuby, Adam Morrison,
- Abstract要約: 本稿では,Apple M-Series CPUの脆弱性をSpectre v1の誤学習に応用する。
ブルートフォースのアウト・オブ・プレイストレーニングがM1で失敗することを示します。
検索スペースを削減した新しいBPUエイリアス検索手法を設計する。
- 参考スコア(独自算出の注目度): 2.0729526483869822
- License:
- Abstract: Spectre v1 information disclosure attacks, which exploit CPU conditional branch misprediction, remain unsolved in deployed software. Certain Spectre v1 gadgets can be exploited only by out-of-place mistraining, in which the attacker controls a victim branch's prediction, possibly from another address space, by training a branch that aliases with the victim in the branch predictor unit (BPU) structure. However, constructing a BPU-alias for a victim branch is hard. Consequently, practical out-of-place mistraining attacks use brute-force searches to randomly achieve aliasing. To date, such attacks have been demonstrated only on Intel x86 CPUs. This paper explores the vulnerability of Apple M-Series CPUs to practical out-of-place Spectre v1 mistraining. We show that brute-force out-of-place mistraining fails on the M1. We analytically explain the failure is due to the search space size, assuming (based on Apple patents) that the M1 CPU uses a variant of the TAGE conditional branch predictor. Based on our analysis, we design a new BPU-alias search technique with reduced search space. Our technique requires knowledge of certain M1 BPU parameters and mechanisms, which we reverse engineer. We also use our newfound ability to perform out-of-place Spectre v1 mistraining to test if the M1 CPU implements hardware mitigations against cross-address space out-of-place mistraining -- and find evidence for partial mitigations.
- Abstract(参考訳): CPU条件分岐誤りを悪用したv1情報開示攻撃は、デプロイされたソフトウェアでは未解決のままである。
特定のSpectre v1ガジェットは、攻撃者が、おそらく別のアドレス空間から、被害者が分岐予測ユニット(BPU)構造で被害者に連絡するブランチを訓練することによって、被害者の予測を制御している場所外の誤訓練によってのみ利用することができる。
しかし、被害者ブランチ用のBPUエイリアスの構築は難しい。
その結果、事実上の非トレーニング攻撃は、ランダムにエイリアスを達成するためにブルートフォースサーチを使用する。
これまで、このような攻撃はIntel x86 CPUでのみ行われた。
本稿では,Apple M-Series CPUの脆弱性をSpectre v1の誤学習に応用する。
ブルートフォースのアウト・オブ・プレイストレーニングがM1で失敗することを示します。
我々は、M1 CPUがTAGE条件分岐予測器の変種を使っていると仮定し、その失敗は検索空間のサイズに起因すると分析的に説明する。
そこで本研究では,検索空間を縮小した新しいBPUエイリアス探索手法を設計した。
本手法では, リバースエンジニアリングを行うM1 BPUパラメータと機構の知識が必要である。
また、新たに開発したSpectre v1のミストレーニング機能を使って、M1 CPUがクロスアドレス空間のミストレーニングに対してハードウェアの緩和を実装しているかどうかをテストし、部分的なミストレーニングの証拠を見つけます。
関連論文リスト
- Citadel: Simple Spectre-Safe Isolation For Real-World Programs That Share Memory [8.414722884952525]
緩和マイクロアーキテクチャ分離(RMI)と呼ばれる新しいセキュリティ機能を導入する。
RMIは、攻撃者とメモリを共有できない機密プログラムを許可し、情報漏洩を非投機的実行に制限する。
エンドツーエンドのプロトタイプであるCitadelは、Linuxをブートしてセキュアなアプリケーションを実行するFPGAベースのマルチコアプロセッサで構成されています。
論文 参考訳(メタデータ) (2023-06-26T17:51:23Z) - Short Paper: Static and Microarchitectural ML-Based Approaches For
Detecting Spectre Vulnerabilities and Attacks [0.0]
投機的侵入は、現代のプロセッサにおける投機的実行設計の脆弱性を悪用する。
現在の最先端検出技術は、これらの脅威を検出するために、微小構造的特徴または脆弱な投機的コードを利用する。
本稿では,静的・微構造解析支援機械学習によるSpectre脆弱性検出手法の総合評価を行う。
論文 参考訳(メタデータ) (2022-10-26T03:55:39Z) - Preprocessors Matter! Realistic Decision-Based Attacks on Machine
Learning Systems [56.64374584117259]
決定に基づく攻撃は、ハードラベルクエリのみを作成することによって、機械学習(ML)モデルに対する逆例を構築する。
我々は,(i)プリプロセッサをリバースエンジニアリングし,(ii)この抽出した情報を用いてエンド・ツー・エンド・システムを攻撃する手法を開発した。
我々のプリプロセッサ抽出法は数百のクエリしか必要とせず、我々のプリプロセッサ・アウェア・アタックはモデルのみを攻撃する場合と同じ効果を回復する。
論文 参考訳(メタデータ) (2022-10-07T03:10:34Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。