論文の概要: Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications
- arxiv url: http://arxiv.org/abs/2402.08208v2
- Date: Thu, 29 Feb 2024 18:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 17:43:13.300956
- Title: Inherent Diverse Redundant Safety Mechanisms for AI-based Software
Elements in Automotive Applications
- Title(参考訳): 自動車応用におけるAIベースのソフトウェア要素の進化的横冗長安全性機構
- Authors: Mandar Pitale, Alireza Abbaspour, Devesh Upadhyay
- Abstract要約: 本稿では,自律走行システムにおける人工知能(AI)アルゴリズムの役割と課題について考察する。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
- 参考スコア(独自算出の注目度): 1.6495054381576084
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper explores the role and challenges of Artificial Intelligence (AI)
algorithms, specifically AI-based software elements, in autonomous driving
systems. These AI systems are fundamental in executing real-time critical
functions in complex and high-dimensional environments. They handle vital tasks
like multi-modal perception, cognition, and decision-making tasks such as
motion planning, lane keeping, and emergency braking. A primary concern relates
to the ability (and necessity) of AI models to generalize beyond their initial
training data. This generalization issue becomes evident in real-time
scenarios, where models frequently encounter inputs not represented in their
training or validation data. In such cases, AI systems must still function
effectively despite facing distributional or domain shifts. This paper
investigates the risk associated with overconfident AI models in
safety-critical applications like autonomous driving. To mitigate these risks,
methods for training AI models that help maintain performance without
overconfidence are proposed. This involves implementing certainty reporting
architectures and ensuring diverse training data. While various
distribution-based methods exist to provide safety mechanisms for AI models,
there is a noted lack of systematic assessment of these methods, especially in
the context of safety-critical automotive applications. Many methods in the
literature do not adapt well to the quick response times required in
safety-critical edge applications. This paper reviews these methods, discusses
their suitability for safety-critical applications, and highlights their
strengths and limitations. The paper also proposes potential improvements to
enhance the safety and reliability of AI algorithms in autonomous vehicles in
the context of rapid and accurate decision-making processes.
- Abstract(参考訳): 本稿では,自律運転システムにおける人工知能(AI)アルゴリズム,特にAIベースのソフトウェア要素の役割と課題について考察する。
これらのaiシステムは、複雑な高次元環境でリアルタイム臨界関数を実行するのに基本である。
それらは、マルチモーダル知覚、認知、運動計画、車線維持、緊急ブレーキなどの意思決定といった重要なタスクを扱う。
主な関心事は、AIモデルの初期のトレーニングデータを超えて一般化する能力(と必要性)に関連している。
この一般化問題は、モデルがトレーニングや検証データで表現されない入力に頻繁に遭遇するリアルタイムシナリオで明らかになる。
そのような場合、aiシステムは、分散またはドメインシフトに直面したにもかかわらず、効果的に機能しなくてはならない。
本稿では、自律運転のような安全クリティカルなアプリケーションにおける過信AIモデルに関連するリスクについて検討する。
これらのリスクを軽減するために,自信過剰なパフォーマンス維持を支援するaiモデルのトレーニング手法を提案する。
これには、確実にレポートアーキテクチャを実装し、多様なトレーニングデータを確保することが含まれる。
aiモデルの安全メカニズムを提供するために、様々な分散ベースの方法が存在するが、特に安全クリティカルな自動車応用の文脈において、これらの方法の体系的な評価が特に欠如している。
文献における多くの手法は、安全クリティカルエッジアプリケーションに必要な迅速な応答時間にうまく適応しない。
本稿では,これらの手法を概観し,安全性に問題のあるアプリケーションに対する適合性を考察し,その強みと限界を強調した。
また、迅速かつ正確な意思決定プロセスにおいて、自動運転車におけるAIアルゴリズムの安全性と信頼性を高めるための潜在的な改善を提案する。
関連論文リスト
- On STPA for Distributed Development of Safe Autonomous Driving: An Interview Study [0.7851536646859475]
System-Theoretic Process Analysis (STPA)は、防衛や航空宇宙といった安全関連分野に適用される新しい手法である。
STPAは、分散システム開発とマルチアトラクション設計レベルを備えた自動車システム工学において、完全には有効でない前提条件を前提としている。
これは継続的開発とデプロイメントにおける保守性の問題と見なすことができる。
論文 参考訳(メタデータ) (2024-03-14T15:56:02Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Towards Safe, Explainable, and Regulated Autonomous Driving [11.043966021881426]
本稿では、自律制御、説明可能なAI(XAI)、規制コンプライアンスを統合するフレームワークを提案する。
フレームワークの目標を達成するのに役立つ、関連するXAIアプローチについて説明します。
論文 参考訳(メタデータ) (2021-11-20T05:06:22Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Robustness testing of AI systems: A case study for traffic sign
recognition [13.395753930904108]
本稿では,AIシステムのロバスト性を実際に検討し,どの手法やメトリクスを利用できるかを示す。
自律運転における交通標識認識の例について,ロバストネステスト手法を解説し,分析した。
論文 参考訳(メタデータ) (2021-08-13T10:29:09Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。