論文の概要: Attacking Slicing Network via Side-channel Reinforcement Learning Attack
- arxiv url: http://arxiv.org/abs/2409.11258v1
- Date: Tue, 17 Sep 2024 15:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 16:13:33.995539
- Title: Attacking Slicing Network via Side-channel Reinforcement Learning Attack
- Title(参考訳): サイドチャネル強化学習攻撃によるスライシングネットワークの攻撃
- Authors: Wei Shao, Chandra Thapa, Rayne Holland, Sarah Ali Siddiqui, Seyit Camtepe,
- Abstract要約: 本稿では,ネットワークスライシング環境に特化して設計された,強化学習に基づくサイドチャネルキャッシュ攻撃フレームワークを提案する。
本フレームワークは,認証キーやユーザ登録データなどの機密情報を格納したキャッシュ位置を動的に識別し,活用する。
実験の結果, 約95%から98%の成功率を達成し, アプローチの優位性を示した。
- 参考スコア(独自算出の注目度): 9.428116807615407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Network slicing in 5G and the future 6G networks will enable the creation of multiple virtualized networks on a shared physical infrastructure. This innovative approach enables the provision of tailored networks to accommodate specific business types or industry users, thus delivering more customized and efficient services. However, the shared memory and cache in network slicing introduce security vulnerabilities that have yet to be fully addressed. In this paper, we introduce a reinforcement learning-based side-channel cache attack framework specifically designed for network slicing environments. Unlike traditional cache attack methods, our framework leverages reinforcement learning to dynamically identify and exploit cache locations storing sensitive information, such as authentication keys and user registration data. We assume that one slice network is compromised and demonstrate how the attacker can induce another shared slice to send registration requests, thereby estimating the cache locations of critical data. By formulating the cache timing channel attack as a reinforcement learning-driven guessing game between the attack slice and the victim slice, our model efficiently explores possible actions to pinpoint memory blocks containing sensitive information. Experimental results showcase the superiority of our approach, achieving a success rate of approximately 95\% to 98\% in accurately identifying the storage locations of sensitive data. This high level of accuracy underscores the potential risks in shared network slicing environments and highlights the need for robust security measures to safeguard against such advanced side-channel attacks.
- Abstract(参考訳): 5Gと将来の6Gネットワークのネットワークスライシングにより、共有物理インフラ上で複数の仮想化ネットワークを作成できるようになる。
この革新的なアプローチは、特定のビジネスタイプや業界ユーザに対応するように調整されたネットワークを提供することを可能にし、よりカスタマイズされた効率的なサービスを提供する。
しかし、ネットワークスライシングにおける共有メモリとキャッシュは、まだ完全に対処されていないセキュリティ脆弱性を導入している。
本稿では,ネットワークスライシング環境に特化して設計された,強化学習に基づくサイドチャネルキャッシュ攻撃フレームワークを提案する。
従来のキャッシュ攻撃手法とは異なり、我々のフレームワークは強化学習を利用して、認証キーやユーザ登録データなどの機密情報を格納したキャッシュ位置を動的に識別し、活用する。
1つのスライスネットワークが漏洩していると仮定し、攻撃者が別の共有スライスを誘導して登録要求を送信し、クリティカルデータのキャッシュ位置を推定する方法を実証する。
攻撃スライスと被害者スライスの間の強化学習による推測ゲームとしてキャッシュタイミングチャネルアタックを定式化することにより、センシティブな情報を含むメモリブロックをピンポイントする可能なアクションを効率的に探索する。
実験の結果, 精度の高いデータの保存位置を正確に同定し, 約95%から98パーセントの成功率を達成した。
この高いレベルの精度は、共有ネットワークスライシング環境の潜在的なリスクを浮き彫りにして、このような高度なサイドチャネル攻撃から保護するための堅牢なセキュリティ対策の必要性を強調している。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - A Practical Trigger-Free Backdoor Attack on Neural Networks [33.426207982772226]
トレーニングデータへのアクセスを必要としないトリガーフリーのバックドア攻撃を提案する。
具体的には、悪意のあるデータの概念を攻撃者特定クラスの概念に組み込んだ、新しい微調整アプローチを設計する。
提案した攻撃の有効性,実用性,ステルスネスを実世界の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2024-08-21T08:53:36Z) - Dullahan: Stealthy Backdoor Attack against Without-Label-Sharing Split Learning [29.842087372804905]
本稿では,非ラベル共有型スプリットラーニングアーキテクチャに適した,ステルスなバックドア攻撃戦略を提案する。
我々のSBATは、訓練中の中間パラメータの変更を控えることで、より高い攻撃ステルスネスを達成する。
論文 参考訳(メタデータ) (2024-05-21T13:03:06Z) - CONNECTION: COvert chaNnel NEtwork attaCk Through bIt-rate mOdulatioN [1.7034813545878589]
カバーチャネルネットワークは、組織が敵の攻撃からネットワークを保護するために設置したセキュリティ対策を回避し、よく知られた方法である。
本稿では,広帯域ネットワーク上で接続されたデバイス間の被覆チャネルを実装するためのビットレート変調に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T13:14:09Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - SPIN: Simulated Poisoning and Inversion Network for Federated
Learning-Based 6G Vehicular Networks [9.494669823390648]
車両ネットワークは常にデータプライバシー保護の懸念に直面してきた。
この手法は、モデル逆転とモデル中毒攻撃に対して非常に脆弱である。
本研究では,データ再構成に最適化手法を応用したシミュレート中毒・逆変換ネットワーク(SPIN)を提案する。
論文 参考訳(メタデータ) (2022-11-21T10:07:13Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Attribution Preservation in Network Compression for Reliable Network
Interpretation [81.84564694303397]
安全に敏感なアプリケーションに埋め込まれたニューラルネットワークは、エッジ計算のサイズを減らすために、後向きの分析とネットワーク圧縮に入力属性に依存する。
ネットワーク圧縮が生成した属性を変形させるため,これらの非関係な手法が相互に競合することを示す。
この現象は、従来のネットワーク圧縮手法が、属性の品質を無視しながら、ネットワークの予測のみを保存するという事実から生じる。
論文 参考訳(メタデータ) (2020-10-28T16:02:31Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。