論文の概要: Trustworthy Sensor Fusion against Inaudible Command Attacks in Advanced
Driver-Assistance System
- arxiv url: http://arxiv.org/abs/2306.05358v1
- Date: Tue, 30 May 2023 00:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:18:30.985937
- Title: Trustworthy Sensor Fusion against Inaudible Command Attacks in Advanced
Driver-Assistance System
- Title(参考訳): 先進運転支援システムにおける無聴コマンド攻撃に対する信頼性の高いセンサ融合
- Authors: Jiwei Guan, Lei Pan, Chen Wang, Shui Yu, Longxiang Gao, Xi Zheng
- Abstract要約: 不明瞭な音声コマンド攻撃は、自律運転システムで音声コマンドが利用可能になると重大な脅威となる。
深層学習に基づくマルチモーダル融合の防衛効果に関する研究
音声コマンド攻撃に対するインテリジェントセキュリティシステムとして,Multimodal Fusion Framework(MFF)を提案する。
- 参考スコア(独自算出の注目度): 26.106314524327498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are increasing concerns about malicious attacks on autonomous vehicles.
In particular, inaudible voice command attacks pose a significant threat as
voice commands become available in autonomous driving systems. How to
empirically defend against these inaudible attacks remains an open question.
Previous research investigates utilizing deep learning-based multimodal fusion
for defense, without considering the model uncertainty in trustworthiness. As
deep learning has been applied to increasingly sensitive tasks, uncertainty
measurement is crucial in helping improve model robustness, especially in
mission-critical scenarios. In this paper, we propose the Multimodal Fusion
Framework (MFF) as an intelligent security system to defend against inaudible
voice command attacks. MFF fuses heterogeneous audio-vision modalities using
VGG family neural networks and achieves the detection accuracy of 92.25% in the
comparative fusion method empirical study. Additionally, extensive experiments
on audio-vision tasks reveal the model's uncertainty. Using Expected
Calibration Errors, we measure calibration errors and Monte-Carlo Dropout to
estimate the predictive distribution for the proposed models. Our findings show
empirically to train robust multimodal models, improve standard accuracy and
provide a further step toward interpretability. Finally, we discuss the pros
and cons of our approach and its applicability for Advanced Driver Assistance
Systems.
- Abstract(参考訳): 自動運転車に対する悪意ある攻撃に対する懸念が高まっている。
特に、音声コマンド攻撃は、自律運転システムで音声コマンドが利用可能になると重大な脅威となる。
これらの難解な攻撃に対して実証的に防御する方法は、未解決の問題だ。
信頼度モデルの不確実性を考慮せずに, 深層学習に基づくマルチモーダル融合の防衛効果について検討した。
深層学習はますます敏感なタスクに応用されているため、特にミッションクリティカルなシナリオにおいて、モデルのロバスト性を改善するのに不確実性の測定が不可欠である。
本稿では,音声コマンド攻撃を防御するインテリジェントセキュリティシステムとして,マルチモーダル融合フレームワーク(mff)を提案する。
MFFは、VGGファミリーニューラルネットワークを用いて異種オーディオビジョンモダリティを融合し、比較融合法実証研究において92.25%の精度で検出する。
さらに、オーディオビジョンタスクに関する広範な実験は、モデルの不確実性を明らかにする。
予測キャリブレーション誤差を用いてキャリブレーション誤差とモンテカルロドロップアウトを測定し,提案モデルの予測分布を推定した。
実験により,頑健なマルチモーダルモデルのトレーニング,標準精度の向上,解釈可能性向上に向けたさらなるステップが示された。
最後に、我々のアプローチの長所と短所と、先進運転支援システムへの適用性について論じる。
関連論文リスト
- A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - Uncertainty is Fragile: Manipulating Uncertainty in Large Language Models [79.76293901420146]
大規模言語モデル(LLM)は、出力の信頼性が不可欠である様々な高い領域で採用されている。
本研究では,不確実性推定の脆弱性を調査し,攻撃の可能性を探る。
攻撃者がLSMにバックドアを埋め込むことができ、入力中の特定のトリガーによって起動されると、最終的な出力に影響を与えることなくモデルの不確実性を操作できることを示す。
論文 参考訳(メタデータ) (2024-07-15T23:41:11Z) - Automatic AI controller that can drive with confidence: steering vehicle with uncertainty knowledge [3.131134048419781]
本研究は,機械学習フレームワークを用いた車両の横方向制御システムの開発に焦点をあてる。
確率論的学習モデルであるベイズニューラルネットワーク(BNN)を用いて不確実性定量化に対処する。
信頼しきい値を確立することで、手動による介入をトリガーし、安全なパラメータの外で動作した場合に、制御がアルゴリズムから解放されることを保証できます。
論文 参考訳(メタデータ) (2024-04-24T23:22:37Z) - Bayesian Learned Models Can Detect Adversarial Malware For Free [28.498994871579985]
対数訓練は有効な方法であるが、大規模データセットにスケールアップするには計算コストがかかる。
特にベイズ式はモデルパラメータの分布を捉えることができ、モデル性能を犠牲にすることなく不確実性を定量化することができる。
ベイズ学習法で不確実性を定量化することで、敵のマルウェアを防御できることがわかった。
論文 参考訳(メタデータ) (2024-03-27T07:16:48Z) - Exploring the Adversarial Frontier: Quantifying Robustness via Adversarial Hypervolume [17.198794644483026]
本稿では,様々な摂動強度に対して総合的に深層学習モデルの頑健性を評価するための,対向超体積と呼ばれる新しい計量法を提案する。
我々は,様々な摂動強度の対向的堅牢性を均一に向上する新しいトレーニングアルゴリズムを採用する。
本研究はロバスト性の新しい尺度に寄与し、敵の脅威に対するベンチマーク評価と、現在および将来の防御モデルのレジリエンスの基準を確立する。
論文 参考訳(メタデータ) (2024-03-08T07:03:18Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - SafeAMC: Adversarial training for robust modulation recognition models [53.391095789289736]
通信システムには、Deep Neural Networks(DNN)モデルに依存する変調認識など、多くのタスクがある。
これらのモデルは、逆方向の摂動、すなわち、誤分類を引き起こすために作られた知覚不能な付加音に影響を受けやすいことが示されている。
本稿では,自動変調認識モデルのロバスト性を高めるために,逆方向の摂動を伴うモデルを微調整する逆方向トレーニングを提案する。
論文 参考訳(メタデータ) (2021-05-28T11:29:04Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Audio-Visual Event Recognition through the lens of Adversary [38.497204362659296]
本研究は, 対向雑音のレンズによるマルチモーダル学習に関連するいくつかの重要な課題について検討することを目的とする。
我々は,Google AudioSetでトレーニングされた最先端のニューラルモデルを攻撃するために,敵対的な例を構築した。
論文 参考訳(メタデータ) (2020-11-15T01:36:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。