論文の概要: The Vulnerability of Semantic Segmentation Networks to Adversarial
Attacks in Autonomous Driving: Enhancing Extensive Environment Sensing
- arxiv url: http://arxiv.org/abs/2101.03924v2
- Date: Wed, 13 Jan 2021 08:42:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 14:40:25.238337
- Title: The Vulnerability of Semantic Segmentation Networks to Adversarial
Attacks in Autonomous Driving: Enhancing Extensive Environment Sensing
- Title(参考訳): 自律運転における対向攻撃に対する意味セグメンテーションネットワークの脆弱性:広範な環境センシングの強化
- Authors: Andreas B\"ar, Jonas L\"ohdefink, Nikhil Kapoor, Serin J. Varghese,
Fabian H\"uger, Peter Schlicht, Tim Fingscheidt
- Abstract要約: 本稿では, セマンティックセグメンテーションに使用されるCNNの脆弱性を, 敵対的攻撃に照らし出すことを目的とする。
自動運転における環境認識にcnnを適用することの利点とデメリットを明らかにすることを目的とする。
- 参考スコア(独自算出の注目度): 25.354929620151367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Enabling autonomous driving (AD) can be considered one of the biggest
challenges in today's technology. AD is a complex task accomplished by several
functionalities, with environment perception being one of its core functions.
Environment perception is usually performed by combining the semantic
information captured by several sensors, i.e., lidar or camera. The semantic
information from the respective sensor can be extracted by using convolutional
neural networks (CNNs) for dense prediction. In the past, CNNs constantly
showed state-of-the-art performance on several vision-related tasks, such as
semantic segmentation of traffic scenes using nothing but the red-green-blue
(RGB) images provided by a camera. Although CNNs obtain state-of-the-art
performance on clean images, almost imperceptible changes to the input,
referred to as adversarial perturbations, may lead to fatal deception. The goal
of this article is to illuminate the vulnerability aspects of CNNs used for
semantic segmentation with respect to adversarial attacks, and share insights
into some of the existing known adversarial defense strategies. We aim to
clarify the advantages and disadvantages associated with applying CNNs for
environment perception in AD to serve as a motivation for future research in
this field.
- Abstract(参考訳): 自律運転(AD)の実現は,今日のテクノロジにおける最大の課題のひとつだと考えることができる。
ADはいくつかの機能によって達成される複雑なタスクであり、環境認識はその中核機能の一つである。
環境認識は通常、複数のセンサー、すなわちライダーやカメラが捉えた意味情報を組み合わせることで行われる。
各センサからのセマンティック情報は、畳み込みニューラルネットワーク(CNN)を用いて高密度予測により抽出することができる。
これまでcnnは、カメラが提供した赤緑色(rgb)画像のみを使用してトラフィックシーンをセマンティクスセグメンテーションするなど、視覚関連のタスクで常に最先端のパフォーマンスを見せていた。
CNNはクリーンな画像で最先端のパフォーマンスを得るが、逆境の摂動と呼ばれる入力に対するほとんど知覚できない変化は致命的な騙しにつながる可能性がある。
この記事の目的は、敵の攻撃に関して意味セグメンテーションに使用されるcnnの脆弱性側面を照らし、既存の敵防御戦略に関する洞察を共有することである。
今後の研究のモチベーションとして,ADにおける環境認識にCNNを適用することのメリットとデメリットを明らかにすることを目的とする。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - A novel feature-scrambling approach reveals the capacity of
convolutional neural networks to learn spatial relations [0.0]
畳み込みニューラルネットワーク(CNN)は、物体認識を解く最も成功したコンピュータビジョンシステムの一つである。
しかし、CNNが実際にどのように決断を下すのか、内部表現の性質や認識戦略が人間とどのように異なるのかは、いまだに理解されていない。
論文 参考訳(メタデータ) (2022-12-12T16:40:29Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Adversarial Attacks on Multi-task Visual Perception for Autonomous
Driving [0.5735035463793008]
対角攻撃は、距離推定、セマンティックセグメンテーション、動き検出、物体検出などにわたる多様なマルチタスク視覚深層ネットワークに適用される。
実験では、標的および未標的のケースに対する白と黒の両方のボックス攻撃を検討し、タスクを攻撃し、他のすべてのケースに対する効果を検査する。
本稿では,実験結果の比較と議論を行い,洞察と今後の研究を提案する。
論文 参考訳(メタデータ) (2021-07-15T16:53:48Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Investigating the significance of adversarial attacks and their relation
to interpretability for radar-based human activity recognition systems [2.081492937901262]
レーダベースのCNNは、ホワイトボックス攻撃とブラックボックス攻撃の両方に影響を受けやすいことを示す。
我々はまた、レーダーベースのCNNによって行われた予測を変更することが可能である極端な敵対攻撃ケースの存在を明らかにします。
論文 参考訳(メタデータ) (2021-01-26T05:16:16Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。