論文の概要: Strategy to Increase the Safety of a DNN-based Perception for HAD
Systems
- arxiv url: http://arxiv.org/abs/2002.08935v1
- Date: Thu, 20 Feb 2020 18:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:52:50.616738
- Title: Strategy to Increase the Safety of a DNN-based Perception for HAD
Systems
- Title(参考訳): DNNに基づくHADシステムに対する認識の安全性向上戦略
- Authors: Timo S\"amann, Peter Schlicht, Fabian H\"uger
- Abstract要約: 安全は自動運転システムにとって最も重要な開発目標の1つである。
そのため、従来の安全プロセスや要件の大部分は、完全には適用できないし、十分ではない。
本稿では,DNN障害の説明と緩和,および関連する安全メカニズムの導出のための枠組みを提案する。
- 参考スコア(独自算出の注目度): 6.140206215951371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safety is one of the most important development goals for highly automated
driving (HAD) systems. This applies in particular to the perception function
driven by Deep Neural Networks (DNNs). For these, large parts of the
traditional safety processes and requirements are not fully applicable or
sufficient. The aim of this paper is to present a framework for the description
and mitigation of DNN insufficiencies and the derivation of relevant safety
mechanisms to increase the safety of DNNs. To assess the effectiveness of these
safety mechanisms, we present a categorization scheme for evaluation metrics.
- Abstract(参考訳): 安全は、高度自動化運転(HAD)システムにとって最も重要な開発目標の1つである。
これはディープニューラルネットワーク(DNN)によって駆動される知覚機能に特に当てはまる。
そのため、従来の安全プロセスや要件の大部分は、完全には適用できない。
本研究の目的は、DNNの安全性を高めるために、DNNの障害の説明と緩和、および関連する安全メカニズムの導出に関する枠組みを提示することである。
これらの安全メカニズムの有効性を評価するため,評価指標の分類手法を提案する。
関連論文リスト
- SoK: Unifying Cybersecurity and Cybersafety of Multimodal Foundation Models with an Information Theory Approach [58.93030774141753]
MFM(Multimodal foundation model)は、人工知能の大幅な進歩を表す。
本稿では,マルチモーダル学習におけるサイバーセーフティとサイバーセキュリティを概念化する。
我々は、これらの概念をMFMに統一し、重要な脅威を特定するための総合的知識体系化(SoK)を提案する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - Unifying Qualitative and Quantitative Safety Verification of DNN-Controlled Systems [18.049286149364075]
深部強化学習技術の急速な進歩は、ディープニューラルネットワーク(DNN)を利用した安全クリティカルシステムの監視を可能にする
既存の検証アプローチのほとんどは定性的アプローチに依存しており、主に到達可能性分析を利用している。
本稿では,定性的・定量的な安全性検証問題を統一するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-02T09:31:51Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Deep Learning Safety Concerns in Automated Driving Perception [43.026485214492105]
本稿では、クロスファンクショナルなチームが共同で関心事に対処できるようにするとともに、理解を深めるための追加の分類を紹介します。
近年のディープラーニング分野の進歩と認識のためのディープニューラルネットワーク(DNN)の性能向上により、自動走行(AD)システムへの需要が高まっている。
論文 参考訳(メタデータ) (2023-09-07T15:25:47Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Assumption Generation for the Verification of Learning-Enabled
Autonomous Systems [7.580719272198119]
本稿では,システムレベルの安全性特性の形式的検証のための前提保証型構成手法を提案する。
本稿では,自律飛行領域から得られたケーススタディについて述べる。
論文 参考訳(メタデータ) (2023-05-27T23:30:27Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - A Novel Online Incremental Learning Intrusion Prevention System [2.5234156040689237]
本稿では,自己組織型インクリメンタルニューラルネットワークとサポートベクトルマシンを併用したネットワーク侵入防止システムを提案する。
提案システムは,その構造上,シグネチャやルールに依存しないセキュリティソリューションを提供するとともに,既知の攻撃や未知の攻撃を高精度にリアルタイムに軽減することができる。
論文 参考訳(メタデータ) (2021-09-20T13:30:11Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。