論文の概要: Applying adversarial networks to increase the data efficiency and
reliability of Self-Driving Cars
- arxiv url: http://arxiv.org/abs/2202.07815v1
- Date: Wed, 16 Feb 2022 01:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 01:42:13.811393
- Title: Applying adversarial networks to increase the data efficiency and
reliability of Self-Driving Cars
- Title(参考訳): 自律走行車のデータ効率と信頼性向上への逆ネットワークの適用
- Authors: Aakash Kumar
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、小さな摂動が存在する場合、画像の分類ミスに対して脆弱である。
自動運転車におけるCNNの普及に伴い、これらのアルゴリズムが衝突を防ぐために堅牢であることを保証することが不可欠である。
Adversarial Self-driving frameworkは、摂動画像の分類精度を向上させるために適用され、後にシミュレーションで自動運転車を訓練するために適用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) are vulnerable to misclassifying images
when small perturbations are present. With the increasing prevalence of CNNs in
self-driving cars, it is vital to ensure these algorithms are robust to prevent
collisions from occurring due to failure in recognizing a situation. In the
Adversarial Self-Driving framework, a Generative Adversarial Network (GAN) is
implemented to generate realistic perturbations in an image that cause a
classifier CNN to misclassify data. This perturbed data is then used to train
the classifier CNN further. The Adversarial Self-driving framework is applied
to an image classification algorithm to improve the classification accuracy on
perturbed images and is later applied to train a self-driving car to drive in a
simulation. A small-scale self-driving car is also built to drive around a
track and classify signs. The Adversarial Self-driving framework produces
perturbed images through learning a dataset, as a result removing the need to
train on significant amounts of data. Experiments demonstrate that the
Adversarial Self-driving framework identifies situations where CNNs are
vulnerable to perturbations and generates new examples of these situations for
the CNN to train on. The additional data generated by the Adversarial
Self-driving framework provides sufficient data for the CNN to generalize to
the environment. Therefore, it is a viable tool to increase the resilience of
CNNs to perturbations. Particularly, in the real-world self-driving car, the
application of the Adversarial Self-Driving framework resulted in an 18 %
increase in accuracy, and the simulated self-driving model had no collisions in
30 minutes of driving.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、小さな摂動が存在する場合、画像の分類ミスに対して脆弱である。
自動運転車におけるCNNの普及に伴い、これらのアルゴリズムが状況認識の失敗による衝突の防止のために堅牢であることを保証することが不可欠である。
Adversarial Self-Driving frameworkでは、GAN(Generative Adversarial Network)が実装され、画像内の現実的な摂動を生成し、分類器CNNがデータを誤分類する。
この摂動データは、さらに分類器CNNを訓練するために使用される。
Adversarial Self-driving framework は画像分類アルゴリズムに適用され、摂動画像の分類精度を改善し、後にシミュレーションで運転する自動運転車の訓練に適用される。
小型の自動運転車もトラックを走り回り、標識を分類するために作られている。
敵対的自動運転フレームワークは、データセットを学習することで摂動画像を生成し、結果として大量のデータをトレーニングする必要がなくなる。
Adversarial Self-driving frameworkは、CNNが摂動に弱い状況を認識し、CNNがトレーニングするこれらの状況の新しい例を生成することを実証している。
Adversarial Self-driving frameworkによって生成された追加データは、CNNが環境に一般化するための十分なデータを提供する。
そのため、摂動に対するCNNの弾力性を高めるための有効なツールである。
特に、現実世界の自動運転車では、Adversarial Self-Drivingフレームワークの適用により精度が18%向上し、シミュレートされた自動運転モデルは30分で衝突することはなかった。
関連論文リスト
- SUSTechGAN: Image Generation for Object Recognition in Adverse Conditions of Autonomous Driving [22.985889862182642]
本稿では,2つの注意モジュールとマルチスケールジェネレータを備えた新しいSUSTechGANを提案する。
我々は、SUSTechGANと既存のよく知られたGANを用いて、雨と夜の悪天候下で駆動画像を生成し、生成した画像をオブジェクト認識ネットワークの再トレーニングに適用する。
実験の結果,SUSTechGANで生成した運転画像は,降雨時のヨロブ5の再学習性能を有意に向上した。
論文 参考訳(メタデータ) (2024-07-18T15:32:25Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Efficient Federated Learning with Spike Neural Networks for Traffic Sign
Recognition [70.306089187104]
我々は、エネルギー効率と高速モデルトレーニングのための交通信号認識に強力なスパイクニューラルネットワーク(SNN)を導入している。
数値的な結果から,提案するフェデレーションSNNは,従来のフェデレーション畳み込みニューラルネットワークよりも精度,ノイズ免疫性,エネルギー効率に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-05-28T03:11:48Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing [33.466413757630846]
本研究では、シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
ベイズ最適化に基づく最先端のアプローチよりも,我々のアプローチははるかにスケーラブルで,はるかに効果的です。
論文 参考訳(メタデータ) (2020-10-17T18:35:32Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning [30.59728753059457]
交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T20:21:48Z) - Towards Safer Self-Driving Through Great PAIN (Physically Adversarial
Intelligent Networks) [3.136861161060885]
我々は、自動運転車が積極的に対話する「Physically Adrial Intelligent Network」(PAIN)を紹介する。
我々は2つのエージェント、主人公と敵を訓練し、優先された体験リプレイを伴う二重深度Qネットワーク(DDDQN)を使用する。
訓練された主人公は、環境の不確実性に対してより弾力性を持ち、ケースの失敗を抑える傾向がある。
論文 参考訳(メタデータ) (2020-03-24T05:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。