論文の概要: Discovering Decision Manifolds to Assure Trusted Autonomous Systems
- arxiv url: http://arxiv.org/abs/2402.07791v2
- Date: Mon, 26 Feb 2024 21:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 21:10:36.114309
- Title: Discovering Decision Manifolds to Assure Trusted Autonomous Systems
- Title(参考訳): 信頼できる自律システムを保証する決定多様体の発見
- Authors: Matthew Litton, Doron Drusinsky, and James Bret Michael
- Abstract要約: 本稿では,システムが提示できる正誤応答の範囲を最適化した探索手法を提案する。
この多様体は、従来のテストやモンテカルロシミュレーションよりもシステムの信頼性をより詳細に理解する。
この概念実証では,本手法を自動運転車のループ内ソフトウェア評価に適用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing and fielding complex systems requires proof that they are reliably
correct with respect to their design and operating requirements. Especially for
autonomous systems which exhibit unanticipated emergent behavior, fully
enumerating the range of possible correct and incorrect behaviors is
intractable. Therefore, we propose an optimization-based search technique for
generating high-quality, high-variance, and non-trivial data which captures the
range of correct and incorrect responses a system could exhibit. This manifold
between desired and undesired behavior provides a more detailed understanding
of system reliability than traditional testing or Monte Carlo simulations.
After discovering data points along the manifold, we apply machine learning
techniques to quantify the decision manifold's underlying mathematical
function. Such models serve as correctness properties which can be utilized to
enable both verification during development and testing, as well as continuous
assurance during operation, even amidst system adaptations and dynamic
operating environments. This method can be applied in combination with a
simulator in order to provide evidence of dependability to system designers and
users, with the ultimate aim of establishing trust in the deployment of complex
systems. In this proof-of-concept, we apply our method to a
software-in-the-loop evaluation of an autonomous vehicle.
- Abstract(参考訳): 複雑なシステムの開発と開発には、設計と運用要件に関して確実に正しいことを証明する必要がある。
特に、予期せぬ創発行動を示す自律システムでは、可能な正しい行動と誤動作の範囲を完全に列挙することは困難である。
そこで本研究では,システムが提示できる正誤応答の範囲を抽出する,高品質,高分散,非自明なデータを生成するための最適化に基づく探索手法を提案する。
この望ましい振る舞いと望ましくない振る舞いの多様体は、従来のテストやモンテカルロシミュレーションよりもシステムの信頼性をより詳細に理解する。
多様体に沿ってデータポイントを発見した後、決定多様体の基礎となる数学的関数を定量化するために機械学習技術を適用する。
このようなモデルは、開発およびテスト中の検証と運用中の継続的な保証の両方を可能にするために、システム適応や動的運用環境の中でも使用できる正確性特性として機能する。
本手法は,システム設計者やユーザへの信頼性の証明をシミュレータと組み合わせることで,複雑なシステムのデプロイに対する信頼性を確立することを目的としたものである。
この概念実証では,本手法を自動運転車のループ内ソフトウェア評価に適用する。
関連論文リスト
- Data-Driven Distributionally Robust Safety Verification Using Barrier Certificates and Conditional Mean Embeddings [0.24578723416255752]
問題を非現実的な仮定にシフトすることなく,スケーラブルな形式検証アルゴリズムを開発する。
問題を非現実的な仮定にシフトさせることなく,スケーラブルな形式検証アルゴリズムを開発するためには,バリア証明書の概念を用いる。
本稿では,2乗法最適化とガウス過程エンベロープを用いて効率よくプログラムを解く方法を示す。
論文 参考訳(メタデータ) (2024-03-15T17:32:02Z) - Towards Scenario-based Safety Validation for Autonomous Trains with Deep
Generative Models [0.0]
シナリオベース検証のための深層生成モデルを用いたデータシミュレーションの有用性に関する実践経験を報告する。
本研究では,鉄道シーンをより深い生成モデルで意味論的に編集し,限られた量の試験データをより代表的なものにする能力を実証する。
論文 参考訳(メタデータ) (2023-10-16T17:55:14Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Validation of Composite Systems by Discrepancy Propagation [4.588222946914529]
本稿では,複合システムによる分布差度測定の限界を伝搬するバリデーション手法を提案する。
提案手法は, 種々の現実的効果を示す複合システムに対して有効かつ有用な境界を導出することを示す。
論文 参考訳(メタデータ) (2022-10-21T15:51:54Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - Manifold for Machine Learning Assurance [9.594432031144716]
本稿では,機械学習(ML)システムにおいて,要求システムを暗黙的に記述した高次元学習データから抽出する機械学習手法を提案する。
その後、テストの精度測定、テスト入力生成、ターゲットのMLシステムの実行時の監視など、さまざまな品質保証タスクに利用されます。
予備実験により, 提案手法により, 試験精度が試験データの多様性を推し進めるとともに, テスト生成手法が故障を防止し, 現実的なテストケースを生み出すことが確認され, 実行時モニタリングは, 対象システムの出力の信頼性を独立的に評価する手段を提供する。
論文 参考訳(メタデータ) (2020-02-08T11:39:01Z) - Counter-example Guided Learning of Bounds on Environment Behavior [11.357397596759172]
本稿では, 環境の正確なモデルなしで, 仕様適合性を評価可能なデータ駆動型ソリューションを提案する。
私たちのアプローチでは、データとシステムの望ましい振る舞いの仕様を使用して、環境の振る舞いの保守的な反応性境界を学習する。
論文 参考訳(メタデータ) (2020-01-20T19:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。