論文の概要: Explaining RADAR features for detecting spoofing attacks in Connected
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2203.00150v1
- Date: Tue, 1 Mar 2022 00:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 14:52:14.642967
- Title: Explaining RADAR features for detecting spoofing attacks in Connected
Autonomous Vehicles
- Title(参考訳): コネクテッド・オートモービルにおけるスプーフィング攻撃検出のためのRADAR機能の説明
- Authors: Nidhi Rastogi, Sara Rampazzi, Michael Clifford, Miriam Heller, Matthew
Bishop, Karl Levitt
- Abstract要約: コネクテッド・自動運転車(CAV)は、サイバー攻撃から守るためのAIシステムが組み込まれていると期待されている。
機械学習(ML)モデルは、このようなAIシステムの基盤となる。
本稿では,センサ入力におけるテキストの不確かさとテキスト不確かさを説明するモデルを提案する。
- 参考スコア(独自算出の注目度): 2.8153045998456188
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Connected autonomous vehicles (CAVs) are anticipated to have built-in AI
systems for defending against cyberattacks. Machine learning (ML) models form
the basis of many such AI systems. These models are notorious for acting like
black boxes, transforming inputs into solutions with great accuracy, but no
explanations support their decisions. Explanations are needed to communicate
model performance, make decisions transparent, and establish trust in the
models with stakeholders. Explanations can also indicate when humans must take
control, for instance, when the ML model makes low confidence decisions or
offers multiple or ambiguous alternatives. Explanations also provide evidence
for post-incident forensic analysis. Research on explainable ML to security
problems is limited, and more so concerning CAVs. This paper surfaces a
critical yet under-researched sensor data \textit{uncertainty} problem for
training ML attack detection models, especially in highly mobile and
risk-averse platforms such as autonomous vehicles. We present a model that
explains \textit{certainty} and \textit{uncertainty} in sensor input -- a
missing characteristic in data collection. We hypothesize that model
explanation is inaccurate for a given system without explainable input data
quality. We estimate \textit{uncertainty} and mass functions for features in
radar sensor data and incorporate them into the training model through
experimental evaluation. The mass function allows the classifier to categorize
all spoofed inputs accurately with an incorrect class label.
- Abstract(参考訳): connected autonomous vehicles(cavs)は、サイバー攻撃を防ぐためにaiシステムを組み込むことが期待されている。
機械学習(ML)モデルは、このようなAIシステムの基盤となる。
これらのモデルはブラックボックスのように振る舞うことで悪名高く、入力を高い精度でソリューションに変換するが、彼らの決定を支持する説明はない。
モデルのパフォーマンスを伝え、決定を透過化し、ステークホルダーとモデルに対する信頼を確立するために、説明が必要です。
例えば、MLモデルが低信頼の判断を下したり、複数のあるいは曖昧な代替手段を提供する場合などである。
説明は事故後の法医学的分析の証拠でもある。
セキュリティ問題に対する説明可能なMLの研究は限られている。
本稿では,ML攻撃検出モデルの訓練,特に自動車などの高移動・リスク回避プラットフォームにおける重要かつ未調査なセンサデータであるtextit{uncertainty}問題について述べる。
本稿では,センサ入力における \textit{certainty} と \textit{uncertainty} を説明するモデルを提案する。
モデル説明は入力データの品質を説明できないシステムでは不正確であると仮定する。
レーダセンサデータの特徴量について,<textit{uncertainty} と質量関数を推定し,実験評価によりトレーニングモデルに組み込む。
マス関数により、分類器は全てのスプーフ入力を不正なクラスラベルで正確に分類することができる。
関連論文リスト
- Explainable AI for Comparative Analysis of Intrusion Detection Models [20.683181384051395]
本研究は,ネットワークトラフィックから侵入検出を行うために,各種機械学習モデルを二分分類および多クラス分類のタスクに解析する。
すべてのモデルをUNSW-NB15データセットで90%の精度でトレーニングしました。
また、Random Forestは正確さ、時間効率、堅牢性という点で最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2024-06-14T03:11:01Z) - Explainable Fraud Detection with Deep Symbolic Classification [4.1205832766381985]
分類問題に対するDeep Symbolic Regressionフレームワークの拡張であるDeep Classificationを提案する。
関数は閉形式で簡潔な数学的表現であるため、モデルは1つの分類決定のレベルとモデルの決定過程の両方において本質的に説明可能である。
PaySimデータセットの評価は、最先端のモデルと競合する予測性能を示しながら、説明可能性の観点からそれらを上回っている。
論文 参考訳(メタデータ) (2023-12-01T13:50:55Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Utilizing XAI technique to improve autoencoder based model for computer
network anomaly detection with shapley additive explanation(SHAP) [0.0]
機械学習(ML)とディープラーニング(DL)メソッドは、特にコンピュータネットワークセキュリティにおいて急速に採用されている。
MLとDLベースのモデルの透明性の欠如は、実装の大きな障害であり、ブラックボックスの性質から批判されている。
XAIは、これらのモデルの信頼性を向上させる上で、説明やアウトプットの解釈を通じて有望な分野である。
論文 参考訳(メタデータ) (2021-12-14T09:42:04Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Efficacy of Statistical and Artificial Intelligence-based False
Information Cyberattack Detection Models for Connected Vehicles [4.058429227214047]
接続された車両(CV)はサイバー攻撃に弱いため、車両自体や他の接続された車両や道路インフラの安全性を即座に損なうことができる。
本稿では,CVデータにおけるサイバー攻撃検出のための3つの変化点ベース統計モデルの評価を行った。
我々は、6つのAIモデルを用いて偽情報攻撃を検出し、攻撃を検出する性能を、開発した変更点モデルと比較した。
論文 参考訳(メタデータ) (2021-08-02T18:50:12Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。