論文の概要: Synergistic Redundancy: Towards Verifiable Safety for Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2209.01710v1
- Date: Sun, 4 Sep 2022 23:52:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:36:20.292928
- Title: Synergistic Redundancy: Towards Verifiable Safety for Autonomous
Vehicles
- Title(参考訳): 相乗的冗長性:自動運転車の安全性検証に向けて
- Authors: Ayoosh Bansal, Simon Yu, Hunmin Kim, Bo Li, Naira Hovakimyan, Marco
Caccamo and Lui Sha
- Abstract要約: 我々は、自律走行車(AV)のような複雑なサイバー物理システムのための安全アーキテクチャとして、シナジスティック冗長性(SR)を提案する。
SRは、システムのミッションと安全タスクを分離することで、特定の障害に対する検証可能な安全保証を提供する。
ミッション層との密接な調整により、システム内の安全クリティカルな障害を容易かつ早期に検出することができる。
- 参考スコア(独自算出の注目度): 10.277825331268179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Autonomous Vehicle (AV) development has progressed, concerns regarding the
safety of passengers and agents in their environment have risen. Each real
world traffic collision involving autonomously controlled vehicles has
compounded this concern. Open source autonomous driving implementations show a
software architecture with complex interdependent tasks, heavily reliant on
machine learning and Deep Neural Networks (DNN), which are vulnerable to non
deterministic faults and corner cases. These complex subsystems work together
to fulfill the mission of the AV while also maintaining safety. Although
significant improvements are being made towards increasing the empirical
reliability and confidence in these systems, the inherent limitations of DNN
verification create an, as yet, insurmountable challenge in providing
deterministic safety guarantees in AV.
We propose Synergistic Redundancy (SR), a safety architecture for complex
cyber physical systems, like AV. SR provides verifiable safety guarantees
against specific faults by decoupling the mission and safety tasks of the
system. Simultaneous to independently fulfilling their primary roles, the
partially functionally redundant mission and safety tasks are able to aid each
other, synergistically improving the combined system. The synergistic safety
layer uses only verifiable and logically analyzable software to fulfill its
tasks. Close coordination with the mission layer allows easier and early
detection of safety critical faults in the system. SR simplifies the mission
layer's optimization goals and improves its design. SR provides safe deployment
of high performance, although inherently unverifiable, machine learning
software. In this work, we first present the design and features of the SR
architecture and then evaluate the efficacy of the solution, focusing on the
crucial problem of obstacle existence detection faults in AV.
- Abstract(参考訳): 自律走行車(AV)の開発が進むにつれて、その環境における乗客やエージェントの安全に関する懸念が高まっている。
自動運転車による現実世界の交通衝突は、この懸念を複雑化させている。
オープンソースの自動運転実装は、非決定論的障害やコーナーケースに弱いマシンラーニングやディープニューラルネットワーク(dnn)に大きく依存する、複雑な相互依存的なタスクを持つソフトウェアアーキテクチャを示している。
これらの複雑なサブシステムは、安全を維持しながら、AVのミッションを果たすために協力する。
これらのシステムの実証的信頼性と信頼性を高めるために、大幅な改善がなされているが、DNN検証の固有の制限は、AVにおける決定論的安全性を保証する上で、必要不可欠な課題を生み出している。
AVのような複雑なサイバー物理システムのための安全アーキテクチャであるSynergistic Redundancy (SR)を提案する。
SRは、システムのミッションと安全タスクを分離することで、特定の障害に対する検証可能な安全保証を提供する。
主要な役割を独立に果たすと同時に、部分的に機能的に冗長なミッションと安全タスクが相互に助け合わされ、総合的なシステムの改善が図られる。
相乗的安全層は、そのタスクを満たすために検証可能で論理的に解析可能なソフトウェアのみを使用する。
ミッション層との密接な調整により、システム内の安全臨界断層の簡易かつ早期検出が可能になる。
SRはミッション層の最適化目標を単純化し、設計を改善する。
SRはハイパフォーマンスの安全なデプロイを提供するが、本質的には検証不可能な機械学習ソフトウェアである。
本研究ではまず, SRアーキテクチャの設計と特徴について述べるとともに, AVにおける障害物存在検出障害の重要な問題に着目し, 解の有効性を評価する。
関連論文リスト
- Extended Neural Contractive Dynamical Systems: On Multiple Tasks and Riemannian Safety Regions [22.80115774627255]
我々は最近、安定性を保証するニューラルネットワークアーキテクチャであるNCDS(Neural Contractive Dynamical Systems)を提案した。
本稿では、より慎重な正規化、複数のタスクを扱うフレームワークの条件変種、遅延障害回避に対する不確実性駆動アプローチによりフレームワークを拡張した。
実験では、開発システムは、自律ロボット工学に必要な安定性を確保しながら、通常のニューラルネットワークの柔軟性があることを検証する。
論文 参考訳(メタデータ) (2024-11-18T09:27:49Z) - SafeEmbodAI: a Safety Framework for Mobile Robots in Embodied AI Systems [5.055705635181593]
物理的世界と自律的に対話するAIロボットを含む、身体化されたAIシステムは、かなり進歩している。
不適切な安全管理は、複雑な環境で障害を引き起こし、悪意のあるコマンドインジェクションに対してシステムが脆弱になる。
我々は,移動ロボットを組込みAIシステムに統合するための安全フレームワークであるtextitSafeEmbodAIを提案する。
論文 参考訳(メタデータ) (2024-09-03T05:56:50Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Highlighting the Safety Concerns of Deploying LLMs/VLMs in Robotics [54.57914943017522]
本稿では,大規模言語モデル (LLMs) と視覚言語モデル (VLMs) をロボティクスアプリケーションに統合する際のロバスト性と安全性に関する重要な課題を強調する。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Formal Modelling of Safety Architecture for Responsibility-Aware
Autonomous Vehicle via Event-B Refinement [1.45566585318013]
本稿では,AVの安全条件をモデル化し,導出し,証明する上での戦略と経験について述べる。
このケーススタディは、現在最先端のゴール認識型責任感性安全性モデルを対象として、周囲の車両との相互作用について議論する。
論文 参考訳(メタデータ) (2024-01-10T02:02:06Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z) - Smart and Secure CAV Networks Empowered by AI-Enabled Blockchain: Next
Frontier for Intelligent Safe-Driving Assessment [17.926728975133113]
コネクテッド・自動運転車(CAV)の安全運転状況の確保は、引き続き広く懸念されている。
アルゴリズム対応型intElligent Safe-Driven AssessmentmenT(BEST)の新たなフレームワークを提案し、スマートで信頼性の高いアプローチを提供します。
論文 参考訳(メタデータ) (2021-04-09T19:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。