論文の概要: Continuous Assurance of Autonomous Vehicle Behavior Through Machine
Learned Correctness Properties
- arxiv url: http://arxiv.org/abs/2402.07791v1
- Date: Mon, 12 Feb 2024 16:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 13:31:13.035409
- Title: Continuous Assurance of Autonomous Vehicle Behavior Through Machine
Learned Correctness Properties
- Title(参考訳): 機械学習精度特性による自動車の自律走行挙動の連続保証
- Authors: Matthew Litton, Doron Drusinsky, and James Bret Michael
- Abstract要約: そこで本研究では,機械学習による正当性特性の形式で,正当性特性を自動構築する手法を提案する。
本手法を,自律走行車のループ内評価に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correctness properties are critical to conducting verification and validation
on software systems, especially those cyberphysical systems whose functionality
changes frequently due to software updates, changes in the operating
environment, or newly learned behaviors. We detail a novel method to
automatically construct expressive, executable correctness properties in the
form of machine-learned correctness properties which can be used to ensure that
a system's behavior is correct with respect to its design and operating
requirements. We propose a method to bootstrap the creation of these
correctness properties using a novel simulation-based generation of training
and testing data using multiple extensions to the Cross Entropy algorithm for
search-based optimization. Then, we apply this method to a software-in-the-loop
evaluation of an autonomous vehicle to demonstrate that such models can assert
about important properties of multi-agent cyberphysical systems. We demonstrate
that this process brings the task of developing robust correctness properties
from the realm of formal methods experts into the domain of system developers
and engineers, and that machine-learned correctness properties are expressive
enough to capture the correct behavior of cyberphysical systems in their
complex environments. This advancement can provide evidence of dependability to
system designers and users, enhancing trust in the deployment of autonomous
vehicles and other intelligent transportation systems.
- Abstract(参考訳): 正確性特性は、ソフトウェアシステム、特にソフトウェア更新や運用環境の変化、新しく学習された行動によって機能が頻繁に変化するサイバーフィジカルシステムにおける検証と検証を行う上で重要である。
システムの設計と運用要件に関してシステムの動作が正しいことを保証するのに使用できる機械主導の補正特性の形で、表現可能で実行可能な正当性プロパティを自動構築する新しい手法を詳述する。
探索に基づく最適化のために,クロスエントロピーアルゴリズムの複数の拡張を用いて,新しいシミュレーションベースのトレーニングデータとテストデータを生成する手法を提案する。
そして,本手法を自律走行車のソフトウェア・イン・ザ・ループ評価に適用し,そのようなモデルがマルチエージェントサイバー物理システムの重要な特性を主張できることを実証する。
このプロセスは,システム開発者や技術者の領域に,形式的手法の専門家の領域から堅牢な正当性特性を開発するタスクをもたらし,マシン学習された正当性特性が,複雑な環境におけるサイバー物理システムの正しい振る舞いを捉えるのに十分な表現力を持っていることを実証する。
この進歩は、システムデザイナやユーザへの信頼の証となり、自動運転車や他のインテリジェント交通システムへの信頼性を高めます。
関連論文リスト
- Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Towards Scenario-based Safety Validation for Autonomous Trains with Deep
Generative Models [0.0]
シナリオベース検証のための深層生成モデルを用いたデータシミュレーションの有用性に関する実践経験を報告する。
本研究では,鉄道シーンをより深い生成モデルで意味論的に編集し,限られた量の試験データをより代表的なものにする能力を実証する。
論文 参考訳(メタデータ) (2023-10-16T17:55:14Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Validation of Composite Systems by Discrepancy Propagation [4.588222946914529]
本稿では,複合システムによる分布差度測定の限界を伝搬するバリデーション手法を提案する。
提案手法は, 種々の現実的効果を示す複合システムに対して有効かつ有用な境界を導出することを示す。
論文 参考訳(メタデータ) (2022-10-21T15:51:54Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - Manifold for Machine Learning Assurance [9.594432031144716]
本稿では,機械学習(ML)システムにおいて,要求システムを暗黙的に記述した高次元学習データから抽出する機械学習手法を提案する。
その後、テストの精度測定、テスト入力生成、ターゲットのMLシステムの実行時の監視など、さまざまな品質保証タスクに利用されます。
予備実験により, 提案手法により, 試験精度が試験データの多様性を推し進めるとともに, テスト生成手法が故障を防止し, 現実的なテストケースを生み出すことが確認され, 実行時モニタリングは, 対象システムの出力の信頼性を独立的に評価する手段を提供する。
論文 参考訳(メタデータ) (2020-02-08T11:39:01Z) - Counter-example Guided Learning of Bounds on Environment Behavior [11.357397596759172]
本稿では, 環境の正確なモデルなしで, 仕様適合性を評価可能なデータ駆動型ソリューションを提案する。
私たちのアプローチでは、データとシステムの望ましい振る舞いの仕様を使用して、環境の振る舞いの保守的な反応性境界を学習する。
論文 参考訳(メタデータ) (2020-01-20T19:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。