論文の概要: Formal Verification of End-to-End Learning in Cyber-Physical Systems:
Progress and Challenges
- arxiv url: http://arxiv.org/abs/2006.09181v1
- Date: Mon, 15 Jun 2020 16:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:22:14.542274
- Title: Formal Verification of End-to-End Learning in Cyber-Physical Systems:
Progress and Challenges
- Title(参考訳): サイバー物理システムにおけるエンドツーエンド学習の形式的検証:進展と課題
- Authors: Nathan Fulton, Nathan Hunt, Nghia Hoang, Subhro Das
- Abstract要約: コンピュータチェックによる正式な正当性を構築することで、自律システムの安全性を確保することができるかもしれない。
本稿では,既存の形式的検証手法に基づく3つの仮定について述べる。
形式的検証による証拠の強度向上に向けた予備的な研究を要約する。
- 参考スコア(独自算出の注目度): 7.955313479061443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems -- such as self-driving cars, autonomous drones, and
automated trains -- must come with strong safety guarantees. Over the past
decade, techniques based on formal methods have enjoyed some success in
providing strong correctness guarantees for large software systems including
operating system kernels, cryptographic protocols, and control software for
drones. These successes suggest it might be possible to ensure the safety of
autonomous systems by constructing formal, computer-checked correctness proofs.
This paper identifies three assumptions underlying existing formal verification
techniques, explains how each of these assumptions limits the applicability of
verification in autonomous systems, and summarizes preliminary work toward
improving the strength of evidence provided by formal verification.
- Abstract(参考訳): 自動運転車、無人ドローン、自動列車などの自律システムは、強力な安全性を保証する必要がある。
過去10年間で、形式的手法に基づく技術は、オペレーティングシステムカーネル、暗号プロトコル、ドローンの制御ソフトウェアなど、大規模ソフトウェアシステムに対して強力な正確性保証を提供することに成功した。
これらの成功は、正式なコンピュータチェックによる正当性証明を構築することによって、自律システムの安全性を確保することができることを示唆している。
本稿では,既存の形式的検証手法に基づく3つの仮定を特定し,これらの仮定が自律システムにおける検証の適用性をいかに制限しているかを説明し,形式的検証による証拠の強度向上に向けた予備的な取り組みを要約する。
関連論文リスト
- Towards Formal Fault Injection for Safety Assessment of Automated
Systems [0.0]
本稿では,開発ライフサイクルを通じてこれら2つのテクニックを融合したフォーマルなフォールトインジェクションを紹介する。
我々は,形式的手法と断層注入の相互支援の5つの領域を同定し,より密着的なアプローチを提唱する。
論文 参考訳(メタデータ) (2023-11-16T11:34:18Z) - Testing learning-enabled cyber-physical systems with Large-Language
Models: A Formal Approach [33.54162936360566]
機械学習(ML)をサイバー物理システム(CPS)に統合することは大きな利益をもたらす。
既存の検証と検証技術は、しばしばこれらの新しいパラダイムには不十分である。
本稿では, 基礎確率テストからより厳密なアプローチへ移行し, 正式な保証を実現するためのロードマップを提案する。
論文 参考訳(メタデータ) (2023-11-13T14:56:14Z) - Formal Methods for Autonomous Systems [21.989467515686858]
形式的手法は安全クリティカルシステムの正当性を確立する上で重要な役割を果たしてきた。
形式的なメソッドの主なビルディングブロックはモデルと仕様です。
様々な定式化の下で, 正しい構成合成を考察する。
論文 参考訳(メタデータ) (2023-11-02T14:18:43Z) - Simulation-based Safety Assurance for an AVP System incorporating
Learning-Enabled Components [0.6526824510982802]
テスト、検証、検証 AD/ADASセーフティクリティカルなアプリケーションが大きな課題のひとつとして残っています。
安全クリティカルな学習可能システムの検証と検証を目的としたシミュレーションベースの開発プラットフォームについて説明する。
論文 参考訳(メタデータ) (2023-09-28T09:00:31Z) - A General Verification Framework for Dynamical and Control Models via
Certificate Synthesis [60.03938402120854]
システム仕様を符号化し、対応する証明書を定義するためのフレームワークを提供する。
コントローラと証明書を形式的に合成する自動化手法を提案する。
我々のアプローチは、ニューラルネットワークの柔軟性を利用して、制御のための安全な学習の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2023-09-12T09:37:26Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Differentiable Control Barrier Functions for Vision-based End-to-End
Autonomous Driving [100.57791628642624]
本稿では,視覚に基づくエンドツーエンド自動運転のための安全保証学習フレームワークを提案する。
我々は、勾配降下によりエンドツーエンドに訓練された微分制御バリア関数(dCBF)を備えた学習システムを設計する。
論文 参考訳(メタデータ) (2022-03-04T16:14:33Z) - A Review of Formal Methods applied to Machine Learning [0.6853165736531939]
機械学習システムの検証の新たな分野に適用される最先端の形式的手法を検討します。
我々はまず,安全クリティカルな分野であるavionic softwareにおいて確立された形式的手法とその現状を思い出す。
次に、機械学習のためにこれまでに開発された形式的手法を包括的かつ詳細にレビューし、その強みと限界を強調します。
論文 参考訳(メタデータ) (2021-04-06T12:48:17Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。