論文の概要: Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms
- arxiv url: http://arxiv.org/abs/2311.01478v1
- Date: Thu, 2 Nov 2023 04:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 16:27:54.679872
- Title: Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms
- Title(参考訳): ヒト中心知覚機構による自律走行における逆MLレジリエンス
- Authors: Aakriti Shah
- Abstract要約: 本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical adversarial attacks on road signs are continuously exploiting
vulnerabilities in modern day autonomous vehicles (AVs) and impeding their
ability to correctly classify what type of road sign they encounter. Current
models cannot generalize input data well, resulting in overfitting or
underfitting. In overfitting, the model memorizes the input data but cannot
generalize to new scenarios. In underfitting, the model does not learn enough
of the input data to accurately classify these road signs. This paper explores
the resilience of autonomous driving systems against three main physical
adversarial attacks (tape, graffiti, illumination), specifically targeting
object classifiers. Several machine learning models were developed and
evaluated on two distinct datasets: road signs (stop signs, speed limit signs,
traffic lights, and pedestrian crosswalk signs) and geometric shapes (octagons,
circles, squares, and triangles). The study compared algorithm performance
under different conditions, including clean and adversarial training and
testing on these datasets. To build robustness against attacks, defense
techniques like adversarial training and transfer learning were implemented.
Results demonstrated transfer learning models played a crucial role in
performance by allowing knowledge gained from shape training to improve
generalizability of road sign classification, despite the datasets being
completely different. The paper suggests future research directions, including
human-in-the-loop validation, security analysis, real-world testing, and
explainable AI for transparency. This study aims to contribute to improving
security and robustness of object classifiers in autonomous vehicles and
mitigating adversarial example impacts on driving systems.
- Abstract(参考訳): 道路標識に対する物理的敵対攻撃は、現代の自動運転車(AV)の脆弱性を継続的に活用し、彼らが遭遇する道路標識の種類を正しく分類する能力を妨げる。
現在のモデルは入力データをうまく一般化できないため、オーバーフィッティングやオーバーフィッティングが発生する。
オーバーフィッティングでは、モデルは入力データを記憶するが、新しいシナリオに一般化することはできない。
アンダーフィッティングにおいて、モデルはこれらの道路標識を正確に分類するのに十分な入力データを学ばない。
本稿では,物体分類器を対象とする3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
いくつかの機械学習モデルは、道路標識(停止標識、速度制限標識、信号機、歩行者横断歩道標識)と幾何学的形状(八角形、円、四角形、三角形)の2つの異なるデータセットで開発、評価された。
研究は、クリーンで敵対的なトレーニングやこれらのデータセットのテストを含む、異なる条件下でのアルゴリズムのパフォーマンスを比較した。
攻撃に対する堅牢性を高めるため、敵対的訓練や転校学習といった防御技術が実装された。
その結果、データセットが全く異なるにもかかわらず、形状訓練から得られる知識を道路標識分類の一般化性を向上させることにより、伝達学習モデルが性能において重要な役割を果たすことを示した。
この論文は、人間のループ検証、セキュリティ分析、現実世界のテスト、透明性のための説明可能なAIなど、将来の研究方向性を提案する。
本研究の目的は、自動運転車におけるオブジェクト分類器の安全性と堅牢性の向上と、運転システムに対する敵対的事例の緩和である。
関連論文リスト
- Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - Evaluating the Robustness of Off-Road Autonomous Driving Segmentation
against Adversarial Attacks: A Dataset-Centric analysis [1.6538732383658392]
本研究では,逆入力摂動に対するセマンティックセグメンテーションモデルの脆弱性について検討する。
異なるセグメンテーションネットワークアーキテクチャに対する敵攻撃の効果を比較する。
この研究は、オフロード非構造環境における自律ロボットUnimog U5023の安全なナビゲーションに寄与する。
論文 参考訳(メタデータ) (2024-02-03T13:48:57Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Robustness Benchmark of Road User Trajectory Prediction Models for
Automated Driving [0.0]
車両内のモデル展開中に観測される機能不全をシミュレートする摂動に対して、機械学習モデルをベンチマークする。
同様の摂動を持つモデルのトレーニングは、パフォーマンスの劣化を効果的に低減し、エラーは+87.5%まで増加する。
効果的な緩和戦略であるにもかかわらず、トレーニング中の摂動によるデータ拡張は、予期せぬ摂動に対する堅牢性を保証するものではない、と我々は主張する。
論文 参考訳(メタデータ) (2023-04-04T15:47:42Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Evaluating Adversarial Attacks on Driving Safety in Vision-Based
Autonomous Vehicles [21.894836150974093]
近年、多くのディープラーニングモデルが自動運転に採用されている。
近年の研究では、敵対的攻撃がディープラーニングに基づく3次元物体検出モデルの検出精度を著しく低下させることが示されている。
論文 参考訳(メタデータ) (2021-08-06T04:52:09Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Learning predictive representations in autonomous driving to improve
deep reinforcement learning [9.919972770800822]
新たな予測表現を用いた強化学習を自律運転に適用する。
新たな予測表現は、一般値関数(GVF)によって学習され、将来の車線中心性と道路角度の予測を提供する。
シミュレーションと実世界の両方の実験では、強化学習における予測表現が学習効率、制御の滑らかさ、およびエージェントが訓練中に表示されなかった道路への一般化を改善することが示されている。
論文 参考訳(メタデータ) (2020-06-26T17:17:47Z) - Physically Realizable Adversarial Examples for LiDAR Object Detection [72.0017682322147]
本稿では,LiDAR検出器を騙すために,汎用な3次元対向物体を生成する手法を提案する。
特に,LiDAR検出器から車両を完全に隠蔽するために,車両の屋根上に対向物体を配置し,その成功率は80%であることを示した。
これは、限られたトレーニングデータから見知らぬ条件下での、より安全な自動運転への一歩だ。
論文 参考訳(メタデータ) (2020-04-01T16:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。