論文の概要: Evaluating the Robustness of Off-Road Autonomous Driving Segmentation
against Adversarial Attacks: A Dataset-Centric analysis
- arxiv url: http://arxiv.org/abs/2402.02154v1
- Date: Sat, 3 Feb 2024 13:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 21:53:14.671162
- Title: Evaluating the Robustness of Off-Road Autonomous Driving Segmentation
against Adversarial Attacks: A Dataset-Centric analysis
- Title(参考訳): 対向攻撃に対するオフロード自律走行セグメンテーションのロバスト性評価:データセット中心解析
- Authors: Pankaj Deoli, Rohit Kumar, Axel Vierling, Karsten Berns
- Abstract要約: 本研究では,逆入力摂動に対するセマンティックセグメンテーションモデルの脆弱性について検討する。
異なるセグメンテーションネットワークアーキテクチャに対する敵攻撃の効果を比較する。
この研究は、オフロード非構造環境における自律ロボットUnimog U5023の安全なナビゲーションに寄与する。
- 参考スコア(独自算出の注目度): 1.6538732383658392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study investigates the vulnerability of semantic segmentation models to
adversarial input perturbations, in the domain of off-road autonomous driving.
Despite good performance in generic conditions, the state-of-the-art
classifiers are often susceptible to (even) small perturbations, ultimately
resulting in inaccurate predictions with high confidence. Prior research has
directed their focus on making models more robust by modifying the architecture
and training with noisy input images, but has not explored the influence of
datasets in adversarial attacks. Our study aims to address this gap by
examining the impact of non-robust features in off-road datasets and comparing
the effects of adversarial attacks on different segmentation network
architectures. To enable this, a robust dataset is created consisting of only
robust features and training the networks on this robustified dataset. We
present both qualitative and quantitative analysis of our findings, which have
important implications on improving the robustness of machine learning models
in off-road autonomous driving applications. Additionally, this work
contributes to the safe navigation of autonomous robot Unimog U5023 in rough
off-road unstructured environments by evaluating the robustness of segmentation
outputs. The code is publicly available at
https://github.com/rohtkumar/adversarial_attacks_ on_segmentation
- Abstract(参考訳): 本研究では,オフロード自律運転領域における逆入力摂動に対するセグメンテーションモデルの脆弱性について検討する。
一般的な条件での優れた性能にもかかわらず、最先端の分類器は(たとえ)小さな摂動の影響を受けやすいことが多く、最終的には信頼性の高い不正確な予測をもたらす。
従来の研究は、アーキテクチャを変更し、ノイズの多い入力画像でトレーニングすることで、モデルをより堅牢にすることに重点を置いてきたが、敵攻撃におけるデータセットの影響については検討していない。
本研究の目的は、オフロードデータセットにおける非破壊的特徴の影響を調査し、異なるセグメンテーションネットワークアーキテクチャに対する敵攻撃の効果を比較することである。
これを実現するために、ロバストなデータセットは、ロバストな機能のみで構成され、このロバスト化されたデータセット上でネットワークをトレーニングする。
我々は、オフロード自動運転アプリケーションにおける機械学習モデルの堅牢性向上に重要な意味を持つ、我々の研究成果の質的および定量的分析の両方を提示する。
本研究は, セグメント出力のロバスト性を評価することにより, ラフオフロード非構造化環境における自律型ロボットunimog u5023の安全な走行に寄与する。
コードはhttps://github.com/rohtkumar/adversarial_attacks_ on_segmentationで公開されている。
関連論文リスト
- Revisiting Generative Adversarial Networks for Binary Semantic
Segmentation on Imbalanced Datasets [20.538287907723713]
異常き裂領域検出は典型的なバイナリセマンティックセグメンテーションタスクであり、アルゴリズムによって舗装面画像上のひび割れを表す画素を自動的に検出することを目的としている。
既存のディープラーニングベースの手法は、特定の公共舗装のデータセットで優れた結果を得たが、不均衡なデータセットでは性能が劇的に低下する。
画素レベルの異常き裂領域検出タスクに対して,条件付き生成逆ネットワーク(cGAN)に基づくディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-03T19:24:40Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Adversary ML Resilience in Autonomous Driving Through Human Centered
Perception Mechanisms [0.0]
本稿では,3つの物理的攻撃(テープ,落書き,照明)に対する自律走行システムのレジリエンスについて検討する。
攻撃に対する堅牢性を構築するために、敵の訓練や移動学習のような防御技術が導入された。
その結果,道路標識分類の一般化性を向上させるために,形状訓練から得られる知識を付与することにより,伝達学習モデルが性能において重要な役割を担っていることが示された。
論文 参考訳(メタデータ) (2023-11-02T04:11:45Z) - Learning to Generate Training Datasets for Robust Semantic Segmentation [37.9308918593436]
セマンティックセグメンテーション手法の堅牢性を改善するための新しい手法を提案する。
我々は,現実的で可視な摂動画像を生成するために,新しい条件付き生成対向ネットワークであるRobustaを設計した。
我々の結果は、このアプローチが安全クリティカルなアプリケーションに有用である可能性を示唆している。
論文 参考訳(メタデータ) (2023-08-01T10:02:26Z) - Robustness Benchmark of Road User Trajectory Prediction Models for
Automated Driving [0.0]
車両内のモデル展開中に観測される機能不全をシミュレートする摂動に対して、機械学習モデルをベンチマークする。
同様の摂動を持つモデルのトレーニングは、パフォーマンスの劣化を効果的に低減し、エラーは+87.5%まで増加する。
効果的な緩和戦略であるにもかかわらず、トレーニング中の摂動によるデータ拡張は、予期せぬ摂動に対する堅牢性を保証するものではない、と我々は主張する。
論文 参考訳(メタデータ) (2023-04-04T15:47:42Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Robust Trajectory Prediction against Adversarial Attacks [84.10405251683713]
ディープニューラルネットワーク(DNN)を用いた軌道予測は、自律運転システムにおいて不可欠な要素である。
これらの手法は敵の攻撃に対して脆弱であり、衝突などの重大な結果をもたらす。
本研究では,敵対的攻撃に対する軌道予測モデルを保護するための2つの重要な要素を同定する。
論文 参考訳(メタデータ) (2022-07-29T22:35:05Z) - CausalAgents: A Robustness Benchmark for Motion Forecasting using Causal
Relationships [8.679073301435265]
既存のデータに摂動を適用することにより、モデルロバスト性の評価と改善のための新しいベンチマークを構築する。
我々はこれらのラベルを使用して、現場から非因果的エージェントを削除することでデータを摂動する。
非因果摂動下では, minADE の相対的な変化は, 原型と比較して25$-$38%である。
論文 参考訳(メタデータ) (2022-07-07T21:28:23Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。