論文の概要: Detecting Adversarial Examples in Learning-Enabled Cyber-Physical
Systems using Variational Autoencoder for Regression
- arxiv url: http://arxiv.org/abs/2003.10804v1
- Date: Sat, 21 Mar 2020 11:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 12:41:14.335021
- Title: Detecting Adversarial Examples in Learning-Enabled Cyber-Physical
Systems using Variational Autoencoder for Regression
- Title(参考訳): 回帰のための変分オートエンコーダを用いた学習型サイバー物理システムの逆例検出
- Authors: Feiyang Cai and Jiani Li and Xenofon Koutsoukos
- Abstract要約: ディープニューラルネットワーク(DNN)は堅牢ではなく、敵対的な例によってモデルが誤った予測をする可能性があることが示されている。
本稿では,CPS の回帰に使用される LEC の逆例を効率よく検出する問題について考察する。
自動運転車用オープンソースシミュレータに実装された緊急ブレーキシステムを用いて,その手法を実証する。
- 参考スコア(独自算出の注目度): 4.788163807490198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-enabled components (LECs) are widely used in cyber-physical systems
(CPS) since they can handle the uncertainty and variability of the environment
and increase the level of autonomy. However, it has been shown that LECs such
as deep neural networks (DNN) are not robust and adversarial examples can cause
the model to make a false prediction. The paper considers the problem of
efficiently detecting adversarial examples in LECs used for regression in CPS.
The proposed approach is based on inductive conformal prediction and uses a
regression model based on variational autoencoder. The architecture allows to
take into consideration both the input and the neural network prediction for
detecting adversarial, and more generally, out-of-distribution examples. We
demonstrate the method using an advanced emergency braking system implemented
in an open source simulator for self-driving cars where a DNN is used to
estimate the distance to an obstacle. The simulation results show that the
method can effectively detect adversarial examples with a short detection
delay.
- Abstract(参考訳): 学習可能なコンポーネント(LEC)は、環境の不確実性や変動に対処し、自律性を高めることができるため、サイバー物理システム(CPS)で広く使われている。
しかし、ディープニューラルネットワーク(DNN)のようなLECは堅牢ではなく、逆の例によってモデルが誤った予測をする可能性があることが示されている。
本稿では,CPSの回帰に使用されるLCCの逆例を効率よく検出する問題を考察する。
提案手法は帰納的共形予測に基づいて,変分オートエンコーダに基づく回帰モデルを用いる。
このアーキテクチャは、入力とニューラルネットワークの予測の両方を考慮して、より一般的に、分散の例を検出することができる。
本稿では,DNNを用いて障害物までの距離を推定する,オープンソースの自動運転車シミュレータに実装された高度な緊急ブレーキシステムを用いた手法を実証する。
シミュレーションの結果,提案手法は検出遅延の短い逆例を効果的に検出できることがわかった。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Improving Prediction Confidence in Learning-Enabled Autonomous Systems [2.66512000865131]
予測の信頼性を向上させるために,分類に使用される学習可能なコンポーネントと自律システムのセンサとのフィードバックループを利用する。
本稿では,三重項ネットワークアーキテクチャに基づく帰納的等角予測(ICP)を用いた分類器を設計し,テスト例とトレーニング例の類似性を定量化するための表現を学習する。
センサに新しい入力を問い合わせるフィードバックループを使用して、予測をさらに洗練し、分類精度を高める。
論文 参考訳(メタデータ) (2021-10-07T00:40:34Z) - Out-of-Distribution Example Detection in Deep Neural Networks using
Distance to Modelled Embedding [0.0]
予測時間における分布外例の検出に使用するDIME(Distance to Modelled Embedding)を提案する。
線形超平面として特徴空間に埋め込まれたトレーニングセットを近似することにより、単純で教師なし、高性能で計算効率の良い手法を導出する。
論文 参考訳(メタデータ) (2021-08-24T12:28:04Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Detection of Dataset Shifts in Learning-Enabled Cyber-Physical Systems
using Variational Autoencoder for Regression [1.5039745292757671]
回帰問題に対してデータセットシフトを効果的に検出する手法を提案する。
提案手法は帰納的共形異常検出に基づいており,回帰モデルに変分オートエンコーダを用いる。
自動運転車用オープンソースシミュレータに実装された高度緊急ブレーキシステムを用いて,本手法を実証する。
論文 参考訳(メタデータ) (2021-04-14T03:46:37Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Cross-Validation and Uncertainty Determination for Randomized Neural
Networks with Applications to Mobile Sensors [0.0]
極端学習マシンは、限られたコンピュータリソースとグリーン機械学習の下で教師付き学習を行うための魅力的で効率的な方法を提供する。
このようなネットワークと回帰手法による教師あり学習について,一般化と予測誤差の整合性および境界性の観点から考察した。
論文 参考訳(メタデータ) (2021-01-06T12:28:06Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Real-time Out-of-distribution Detection in Learning-Enabled
Cyber-Physical Systems [1.4213973379473654]
サイバー物理システムは、現実世界の不確実性と可変性を処理できる機械学習コンポーネントを使用することで恩恵を受ける。
しかし、ディープニューラルネットワークは、システムの安全性に影響を及ぼす可能性のある、新しいタイプのハザードを導入している。
アウト・オブ・ディストリビューションデータは大きなエラーを引き起こし、安全性を損なう可能性がある。
論文 参考訳(メタデータ) (2020-01-28T17:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。