論文の概要: Robustness testing of AI systems: A case study for traffic sign
recognition
- arxiv url: http://arxiv.org/abs/2108.06159v1
- Date: Fri, 13 Aug 2021 10:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 17:23:18.968048
- Title: Robustness testing of AI systems: A case study for traffic sign
recognition
- Title(参考訳): aiシステムのロバストネステスト:交通標識認識を事例として
- Authors: Christian Berghoff and Pavol Bielik and Matthias Neu and Petar Tsankov
and Arndt von Twickel
- Abstract要約: 本稿では,AIシステムのロバスト性を実際に検討し,どの手法やメトリクスを利用できるかを示す。
自律運転における交通標識認識の例について,ロバストネステスト手法を解説し,分析した。
- 参考スコア(独自算出の注目度): 13.395753930904108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, AI systems, in particular neural networks, have seen a
tremendous increase in performance, and they are now used in a broad range of
applications. Unlike classical symbolic AI systems, neural networks are trained
using large data sets and their inner structure containing possibly billions of
parameters does not lend itself to human interpretation. As a consequence, it
is so far not feasible to provide broad guarantees for the correct behaviour of
neural networks during operation if they process input data that significantly
differ from those seen during training. However, many applications of AI
systems are security- or safety-critical, and hence require obtaining
statements on the robustness of the systems when facing unexpected events,
whether they occur naturally or are induced by an attacker in a targeted way.
As a step towards developing robust AI systems for such applications, this
paper presents how the robustness of AI systems can be practically examined and
which methods and metrics can be used to do so. The robustness testing
methodology is described and analysed for the example use case of traffic sign
recognition in autonomous driving.
- Abstract(参考訳): ここ数年、AIシステム、特にニューラルネットワークのパフォーマンスは大幅に向上し、現在では広範囲のアプリケーションで使用されている。
古典的なシンボリックAIシステムとは異なり、ニューラルネットワークは巨大なデータセットを使って訓練されており、数十億のパラメータを含む内部構造は人間の解釈に役立ちません。
結果として、トレーニング中に見られるものと大きく異なる入力データを処理する場合、操作中のニューラルネットワークの正しい振る舞いを広範囲に保証することは、今のところ不可能である。
しかし、aiシステムの多くのアプリケーションは、セキュリティ上または安全上重要であり、それゆえ、予期しない出来事に直面した場合にシステムの堅牢性に関するステートメントを取得する必要がある。
このようなアプリケーションのための堅牢なAIシステムを開発するためのステップとして,本論文では,AIシステムの堅牢性を実際に検討し,どの方法やメトリクスを利用できるかを示す。
自律運転における交通標識認識の例について,ロバストネステスト手法を解説し,分析した。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Autoencoder-based Semantic Novelty Detection: Towards Dependable
AI-based Systems [3.0799158006789056]
本稿では,自動エンコーダに基づくセマンティックノベルティ検出のための新しいアーキテクチャを提案する。
このような意味的ノベルティ検出は、文献から知られている自己エンコーダに基づくノベルティ検出手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:27:19Z) - How to Reach Real-Time AI on Consumer Devices? Solutions for
Programmable and Custom Architectures [7.085772863979686]
ディープニューラルネットワーク(DNN)は、オブジェクトや音声認識など、さまざまな人工知能(AI)推論タスクにおいて大きな進歩をもたらした。
このようなAIモデルをコモディティデバイスにデプロイすることは、大きな課題に直面している。
クロススタック手法によりリアルタイムな性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T11:23:12Z) - Understanding Neural Code Intelligence Through Program Simplification [3.9704927572880253]
コードインテリジェンスシステムにおけるモデルに対する重要な入力特徴を特定するためのモデルに依存しないアプローチを提案する。
当社のアプローチであるSIVANDでは,CIモデルの入力プログラムのサイズを縮小する単純化手法を採用しています。
SIVANDの抽出した特徴は、ニューラルCIシステムの予測と学習行動を理解するのに役立つと信じている。
論文 参考訳(メタデータ) (2021-06-07T05:44:29Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Out-of-Distribution Detection for Automotive Perception [58.34808836642603]
ニューラルネットワーク(NN)は、自律運転におけるオブジェクト分類に広く使われている。
NNは、アウト・オブ・ディストリビューション(OOD)データとして知られるトレーニングデータセットで適切に表現されていない入力データでフェールすることができる。
本稿では,OODデータを必要としない入力がOODであるか否かを判定し,推論の計算コストを増大させる方法を提案する。
論文 参考訳(メタデータ) (2020-11-03T01:46:35Z) - A Novel Anomaly Detection Algorithm for Hybrid Production Systems based
on Deep Learning and Timed Automata [73.38551379469533]
DAD:DeepAnomalyDetectionは,ハイブリッド生産システムにおける自動モデル学習と異常検出のための新しいアプローチである。
深層学習とタイムドオートマトンを組み合わせて、観察から行動モデルを作成する。
このアルゴリズムは実システムからの2つのデータを含む少数のデータセットに適用され、有望な結果を示している。
論文 参考訳(メタデータ) (2020-10-29T08:27:43Z) - Experimental Review of Neural-based approaches for Network Intrusion
Management [8.727349339883094]
本稿では,侵入検出問題に適用したニューラルネットワーク手法の実験的検討を行う。
私たちは、ディープベースアプローチやウェイトレスニューラルネットワークを含む、侵入検出に関連する最も顕著なニューラルネットワークベースのテクニックの完全なビューを提供します。
我々の評価は、特に最先端のデータセットを使用してモデルのトレーニングを行う場合、ニューラルネットワークの価値を定量化する。
論文 参考訳(メタデータ) (2020-09-18T18:32:24Z) - Detecting Adversarial Examples in Learning-Enabled Cyber-Physical
Systems using Variational Autoencoder for Regression [4.788163807490198]
ディープニューラルネットワーク(DNN)は堅牢ではなく、敵対的な例によってモデルが誤った予測をする可能性があることが示されている。
本稿では,CPS の回帰に使用される LEC の逆例を効率よく検出する問題について考察する。
自動運転車用オープンソースシミュレータに実装された緊急ブレーキシステムを用いて,その手法を実証する。
論文 参考訳(メタデータ) (2020-03-21T11:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。