論文の概要: Efficient RL-based Cache Vulnerability Exploration by Penalizing Useless Agent Actions
- arxiv url: http://arxiv.org/abs/2506.07200v1
- Date: Sun, 08 Jun 2025 15:48:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.088505
- Title: Efficient RL-based Cache Vulnerability Exploration by Penalizing Useless Agent Actions
- Title(参考訳): 役立たずエージェントアクションのペナルティ化による効率的なRLベースのキャッシュ脆弱性探索
- Authors: Kanato Nakanishi, Soramichi Akiyama,
- Abstract要約: キャッシュチューニング攻撃は、微構造特性を利用して機密データを漏洩する。
Reinforcement Learning (RL) に基づく手法が提案されている。
そこで本稿では,これら無用な行為を訓練中に識別し,エージェントが回避し,探索効率が向上する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cache-timing attacks exploit microarchitectural characteristics to leak sensitive data, posing a severe threat to modern systems. Despite its severity, analyzing the vulnerability of a given cache structure against cache-timing attacks is challenging. To this end, a method based on Reinforcement Learning (RL) has been proposed to automatically explore vulnerabilities for a given cache structure. However, a naive RL-based approach suffers from inefficiencies due to the agent performing actions that do not contribute to the exploration. In this paper, we propose a method to identify these useless actions during training and penalize them so that the agent avoids them and the exploration efficiency is improved. Experiments on 17 cache structures show that our training mechanism reduces the number of useless actions by up to 43.08%. This resulted in the reduction of training time by 28\% in the base case and 4.84\% in the geomean compared to a naive RL-based approach.
- Abstract(参考訳): キャッシュチューニング攻撃は、マイクロアーキテクチャの特徴を利用して機密データを漏洩させ、現代のシステムに深刻な脅威をもたらす。
その重大さにもかかわらず、所定のキャッシュ構造の脆弱性を分析してキャッシュの警告攻撃を防ぐことは困難である。
この目的のために,Reinforcement Learning (RL) に基づく手法が提案されている。
しかしながら、単純RLベースのアプローチは、探索に寄与しないアクションを実行するエージェントによって非効率に悩まされる。
本稿では,これらの無用な行為を訓練中に識別し,エージェントが回避し,探索効率が向上する手法を提案する。
17のキャッシュ構造の実験により、我々のトレーニングメカニズムは、役に立たないアクションの数を最大43.08%削減することが示された。
その結果, 基礎症例では28 %, ジオ平均では4.84 %のトレーニング時間を, 単純RL法では4.84 %に短縮した。
関連論文リスト
- Fight Fire with Fire: Defending Against Malicious RL Fine-Tuning via Reward Neutralization [0.0]
悪意のあるRL微調整は、優れた効率で安全ガードレールを解体する。
監督された微調整を狙った既存の防御は効果がない。
我々は、RL微調整攻撃に対して特別に設計された最初の防御フレームワークであるReward Neutralizationを紹介する。
論文 参考訳(メタデータ) (2025-05-07T17:18:48Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Adversarial training for tabular data with attack propagation [1.9826772682131455]
トレーニングループ内の2つの空間間で攻撃が伝播する新しい形態の対角訓練を提案する。
本手法は中程度の攻撃で約30%の性能低下を防止でき、非常に攻撃的な攻撃では必須であることを示す。
論文 参考訳(メタデータ) (2023-07-28T17:12:46Z) - Efficient Backdoor Attacks for Deep Neural Networks in Real-world Scenarios [17.928013313779516]
最近のディープニューラルネットワーク(DNN)は、膨大なトレーニングデータに依存している。
本稿では,被害者が複数の情報源からデータを収集する,より現実的な攻撃シナリオを提案する。
クリーンな特徴抑圧とPhoisoning Feature Augmentationの2つの異なるストリームからCLIPベースの3つの技術を紹介した。
論文 参考訳(メタデータ) (2023-06-14T09:21:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。