論文の概要: System-level Analysis of Adversarial Attacks and Defenses on Intelligence in O-RAN based Cellular Networks
- arxiv url: http://arxiv.org/abs/2402.06846v2
- Date: Tue, 13 Feb 2024 16:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 11:29:11.602741
- Title: System-level Analysis of Adversarial Attacks and Defenses on Intelligence in O-RAN based Cellular Networks
- Title(参考訳): O-RAN系セルネットワークにおける敵攻撃のシステムレベル解析とインテリジェンスに対する防御
- Authors: Azuka Chiejina, Brian Kim, Kaushik Chowhdury, Vijay K. Shah,
- Abstract要約: オープンラジオアクセスネットワーク技術におけるサイバー脅威のシステムレベルでの徹底的な調査を行う。
我々は、O-RANのほぼリアルタイムRAN Intelligent Controller(近RT RIC)プラットフォーム内のxAppsとして知られる機械学習(ML)インテリジェンスコンポーネントに焦点を当てる。
我々の研究は、2種類のテストデータに対する敵対攻撃を実行するために設計された悪質なxAppの開発から始まった。
これらの脅威を緩和するために,教師モデルを高いソフトマックス温度で訓練し,その知識を低いソフトマックス温度で訓練された学生モデルに伝達する蒸留技術を利用する。
- 参考スコア(独自算出の注目度): 2.1824191810542666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the open architecture, open interfaces, and integration of intelligence within Open Radio Access Network technology hold the promise of transforming 5G and 6G networks, they also introduce cybersecurity vulnerabilities that hinder its widespread adoption. In this paper, we conduct a thorough system-level investigation of cyber threats, with a specific focus on machine learning (ML) intelligence components known as xApps within the O-RAN's near-real-time RAN Intelligent Controller (near-RT RIC) platform. Our study begins by developing a malicious xApp designed to execute adversarial attacks on two types of test data - spectrograms and key performance metrics (KPMs), stored in the RIC database within the near-RT RIC. To mitigate these threats, we utilize a distillation technique that involves training a teacher model at a high softmax temperature and transferring its knowledge to a student model trained at a lower softmax temperature, which is deployed as the robust ML model within xApp. We prototype an over-the-air LTE/5G O-RAN testbed to assess the impact of these attacks and the effectiveness of the distillation defense technique by leveraging an ML-based Interference Classification (InterClass) xApp as an example. We examine two versions of InterClass xApp under distinct scenarios, one based on Convolutional Neural Networks (CNNs) and another based on Deep Neural Networks (DNNs) using spectrograms and KPMs as input data respectively. Our findings reveal up to 100% and 96.3% degradation in the accuracy of both the CNN and DNN models respectively resulting in a significant decline in network performance under considered adversarial attacks. Under the strict latency constraints of the near-RT RIC closed control loop, our analysis shows that the distillation technique outperforms classical adversarial training by achieving an accuracy of up to 98.3% for mitigating such attacks.
- Abstract(参考訳): Open Radio Access Network 技術におけるオープンアーキテクチャ、オープンインターフェース、インテリジェンスの統合は、5G と 6G のネットワークをトランスフォーメーションするという約束を持っているが、彼らはまた、その普及を妨げるサイバーセキュリティの脆弱性も導入している。
本稿では、O-RANの近リアルタイムRAN Intelligent Controller(近RT RIC)プラットフォーム内のxAppsとして知られる機械学習(ML)インテリジェンスコンポーネントに特化して、サイバー脅威に関するシステムレベルの徹底的な調査を行う。
我々の研究は、近RT RIC の RIC データベースに格納されているスペクトルとキーパフォーマンスメトリクス(KPM)の2種類のテストデータに対する敵攻撃を実行するために設計された悪意のある xApp の開発から始まった。
これらの脅威を軽減するために,教師モデルを高いソフトマックス温度で訓練し,その知識を低ソフトマックス温度で訓練した学生モデルに伝達する蒸留技術を用いて,xApp内の堅牢MLモデルとして展開する。
我々は,これらの攻撃の影響と蒸留防御技術の有効性を評価するために,MLベースの干渉分類(InterClass)xAppを例として利用して,空対LTE/5G O-RANテストベッドの試作を行った。
コンボリューショナルニューラルネットワーク(CNN)とディープニューラルネットワーク(DNN)の2つのバージョンを,それぞれスペクトルとKPMを入力データとして検討した。
その結果,CNNモデルとDNNモデルの両方の精度は100%,96.3%低下し,ネットワーク性能は有意に低下した。
近RT RIC閉鎖制御ループの厳密な遅延制約の下では, 蒸留法は, それらの攻撃を緩和するために, 最大98.3%の精度を達成し, 古典的敵の訓練より優れていることを示す。
関連論文リスト
- Enhancing O-RAN Security: Evasion Attacks and Robust Defenses for Graph Reinforcement Learning-based Connection Management [5.791956438741676]
オープン無線アクセスネットワーク(O-RAN)における機械学習(ML)モデルに対する様々な攻撃と防御について検討する。
セキュリティ脅威の包括的モデリングと敵の攻撃と防衛のデモは、まだ初期段階にある。
我々は,難易度の高い物理的・妨害的攻撃に対する堅牢なトレーニングベース防御を開発し,幅広い騒音予算に対する防御を施さない場合と比較して,カバー率を15%向上させることを示した。
論文 参考訳(メタデータ) (2024-05-06T22:27:24Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Few-shot Weakly-supervised Cybersecurity Anomaly Detection [1.179179628317559]
本稿では,既存の弱教師付きディープラーニング異常検出フレームワークの強化を提案する。
このフレームワークには、データ拡張、表現学習、順序回帰が含まれている。
そして、3つのベンチマークデータセット上で実装したフレームワークの性能を評価した。
論文 参考訳(メタデータ) (2023-04-15T04:37:54Z) - A New Deep Boosted CNN and Ensemble Learning based IoT Malware Detection [0.0]
セキュリティ問題は、特にIoT(Internet of Things)環境で、さまざまなタイプのネットワークで脅かされている。
我々は,新しいマルウェア検出フレームワークであるDeep Squeezed-Boosted and Ensemble Learning (DSBEL)を開発し,Squeezed-Boosted Boundary-Region Split-Transform-Merge (SB-BR-STM) CNNとアンサンブル学習を行った。
論文 参考訳(メタデータ) (2022-12-15T18:14:51Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。