論文の概要: A Survey on Machine Learning-based Misbehavior Detection Systems for 5G
and Beyond Vehicular Networks
- arxiv url: http://arxiv.org/abs/2201.10500v1
- Date: Tue, 25 Jan 2022 17:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 17:51:05.177154
- Title: A Survey on Machine Learning-based Misbehavior Detection Systems for 5G
and Beyond Vehicular Networks
- Title(参考訳): 機械学習による5GおよびVehicular Networksのミスビヘイビア検出システムの検討
- Authors: Abdelwahab Boualouache and Thomas Engel
- Abstract要約: V2Xと5Gを統合することで、超低レイテンシと高信頼性のV2X通信が可能になった。
攻撃はより攻撃的になり、攻撃者はより戦略的になった。
多くのV2XMisbehavior Detection Systems (MDS)がこのパラダイムを採用している。
しかし、これらのシステムを分析することは研究のギャップであり、効果的なMLベースのMDSを開発することは依然として未解決の問題である。
- 参考スコア(独自算出の注目度): 4.410803831098062
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Significant progress has been made towards deploying Vehicle-to-Everything
(V2X) technology. Integrating V2X with 5G has enabled ultra-low latency and
high-reliability V2X communications. However, while communication performance
has enhanced, security and privacy issues have increased. Attacks have become
more aggressive, and attackers have become more strategic. Public Key
Infrastructure proposed by standardization bodies cannot solely defend against
these attacks. Thus, in complementary of that, sophisticated systems should be
designed to detect such attacks and attackers. Machine Learning (ML) has
recently emerged as a key enabler to secure our future roads. Many V2X
Misbehavior Detection Systems (MDSs) have adopted this paradigm. Yet, analyzing
these systems is a research gap, and developing effective ML-based MDSs is
still an open issue. To this end, this paper present a comprehensive survey and
classification of ML-based MDSs. We analyze and discuss them from both security
and ML perspectives. Then, we give some learned lessons and recommendations
helping in developing, validating, and deploying ML-based MDSs. Finally, we
highlight open research and standardization issues with some future directions.
- Abstract(参考訳): 車からあらゆるもの(v2x)技術を展開する上で大きな進歩があった。
V2Xと5Gを統合することで、超低レイテンシと高信頼性のV2X通信が可能になった。
しかし、通信性能が向上する一方で、セキュリティとプライバシの問題も増加している。
攻撃はより攻撃的になり、攻撃者はより戦略的になった。
標準化機関によって提案された公開鍵インフラストラクチャーは、これらの攻撃に対してのみ防御することはできない。
したがって、それと相補的に、高度なシステムはそのような攻撃や攻撃を検出するように設計されるべきである。
機械学習(ML)は、私たちの将来の道路を確保するための重要な手段として最近登場した。
多くのV2XMisbehavior Detection Systems (MDS)がこのパラダイムを採用している。
しかし、これらのシステムの解析は研究のギャップであり、効果的なmlベースのmdssの開発はまだ未解決の問題である。
本稿ではMLベースのMDSの総合的な調査と分類について述べる。
セキュリティとMLの両方の観点から分析し、議論する。
次に、MLベースのMDSを開発し、検証し、デプロイするための学習した教訓とレコメンデーションを提供します。
最後に,今後の方向性として,オープンリサーチと標準化の課題を強調する。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Model Extraction Attacks Revisited [18.842264538177353]
モデル抽出(ME)攻撃は、MachineLearning-as-a-Serviceプラットフォームに対する大きな脅威のひとつだ。
MLプラットフォームのME攻撃に対する脆弱性は、どのように進化していますか?
本研究は,MEの脆弱性の現状に光を当て,今後の研究に期待できるいくつかの方向性を示すものである。
論文 参考訳(メタデータ) (2023-12-08T21:49:16Z) - On Evaluating Adversarial Robustness of Large Vision-Language Models [64.66104342002882]
大規模視覚言語モデル(VLM)のロバスト性を,最も現実的で高リスクな環境で評価する。
特に,CLIP や BLIP などの事前学習モデルに対して,まず攻撃対象のサンプルを作成する。
これらのVLM上のブラックボックスクエリは、ターゲットの回避の効果をさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-26T13:49:44Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - Prepare for Trouble and Make it Double. Supervised and Unsupervised
Stacking for AnomalyBased Intrusion Detection [4.56877715768796]
メタラーニングを2層スタックの形で導入し、既知の脅威と未知の脅威の両方を検出する混合アプローチを提案する。
その結果、教師付きアルゴリズムよりもゼロデイ攻撃の検出に効果があり、主要な弱点は限定されているものの、既知の攻撃を検出するのに十分な能力を維持していることがわかった。
論文 参考訳(メタデータ) (2022-02-28T08:41:32Z) - When Machine Learning Meets Spectrum Sharing Security: Methodologies and
Challenges [19.313414666640078]
インターネット接続システムの指数関数的成長は、スペクトル不足問題など、多くの問題を引き起こしている。
複雑でダイナミックなスペクトル共有(SS)システムは、潜在的なセキュリティとプライバシの問題に晒される可能性がある。
これらの問題に対処するために機械学習(ML)ベースの手法が頻繁に提案されている。
論文 参考訳(メタデータ) (2022-01-12T20:04:28Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。