論文の概要: Bayesian Learning for the Robust Verification of Autonomous Robots
- arxiv url: http://arxiv.org/abs/2303.08476v1
- Date: Wed, 15 Mar 2023 09:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:20:01.831770
- Title: Bayesian Learning for the Robust Verification of Autonomous Robots
- Title(参考訳): 自律ロボットのロバスト検証のためのベイズ学習
- Authors: Xingyu Zhao, Simos Gerasimou, Radu Calinescu, Calum Imrie, Valentin
Robu, David Flynn
- Abstract要約: 本フレームワークは,確認済みのロボットシステムの事前の知識と観察を利用して,事象の発生率の予測値範囲を学習する。
提案手法を水中インフラ検査・修理のための自律型ロボットミッションの検証事例に適用する。
- 参考スコア(独自算出の注目度): 13.000098499868658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a novel Bayesian learning framework that enables the runtime
verification of autonomous robots performing critical missions in uncertain
environments. Our framework exploits prior knowledge and observations of the
verified robotic system to learn expected ranges of values for the occurrence
rates of its events. We support both events observed regularly during system
operation, and singular events such as catastrophic failures or the completion
of difficult one-off tasks. Furthermore, we use the learnt event-rate ranges to
assemble interval continuous-time Markov models, and we apply quantitative
verification to these models to compute expected intervals of variation for key
system properties. These intervals reflect the uncertainty intrinsic to many
real-world systems, enabling the robust verification of their quantitative
properties under parametric uncertainty. We apply the proposed framework to the
case study of verification of an autonomous robotic mission for underwater
infrastructure inspection and repair.
- Abstract(参考訳): 我々は,不確実な環境で重要な任務を遂行する自律ロボットの実行時検証を可能にする,新しいベイズ学習フレームワークを開発した。
本フレームワークは,検証されたロボットシステムの事前知識と観察を活用し,事象発生率の予測値の範囲を学習する。
システム運用中に定期的に観測されるイベントと、破滅的な障害や困難なワンオフタスクの完了といった特異なイベントの両方をサポートします。
さらに、学習したイベントレート範囲を用いて連続時間マルコフモデルをアレンジし、これらのモデルに定量的な検証を適用し、キーシステム特性の変動の予測間隔を計算する。
これらの間隔は多くの実世界の系に内在する不確実性を反映しており、パラメトリック不確実性の下での量的性質の堅牢な検証を可能にする。
提案手法を,水中インフラ検査・補修のための自律型ロボットミッションの検証事例に適用する。
関連論文リスト
- Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Inference for Interpretable Machine Learning: Fast, Model-Agnostic
Confidence Intervals for Feature Importance [1.2891210250935146]
我々は、機械学習の解釈の広く使われている形態、すなわち特徴の重要性に対する信頼区間を発達させる。
ランダムな観察とミニパッチアンサンブルと呼ばれる特徴サブサンプリングの形式を活用することで実現している。
推論に必要な計算が、アンサンブル学習プロセスの一部としてほぼ無償で提供されるため、私たちのアプローチは高速です。
論文 参考訳(メタデータ) (2022-06-05T03:14:48Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Uncertainty-Aware Multiple Instance Learning fromLarge-Scale Long Time
Series Data [20.2087807816461]
本稿では,最も関連性の高い周期自動識別のための不確実性認識型マルチインスタンス(MIL)フレームワークを提案する。
さらに、別のモデルを訓練し、不確実性を考慮した融合を行うことにより、信頼できない予測を調整できる別のモダリティを組み込む。
実験結果から, 提案手法は, 軌道に基づく容器の形状を効果的に検出できることを示した。
論文 参考訳(メタデータ) (2021-11-16T17:09:02Z) - Injecting Planning-Awareness into Prediction and Detection Evaluation [42.228191984697006]
私たちは一歩後退して、現在の評価指標を批判的に評価し、タスク対応メトリクスを、デプロイされるシステムのパフォーマンスのより良い測定基準として提案します。
実世界の自律運転データとともに、実世界のシミュレーション実験により、提案したタスク認識メトリクスが結果非対称性を考慮でき、モデルのクローズドループ性能をよりよく推定できることを確認した。
論文 参考訳(メタデータ) (2021-10-07T08:52:48Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Building an Automated and Self-Aware Anomaly Detection System [0.0]
異常に対して多種多様かつ常に変化する時系列を積極的に監視することは困難である。
伝統的に、データ生成プロセスとパターンのバリエーションは、異常を正確にフラグするモデルを作成するために、強力なモデリングの専門知識を必要としてきた。
本稿では,手作業による介入を必要とせず,各モデルに必要な変更を加えることで,この共通課題を克服する異常検出システムについて述べる。
論文 参考訳(メタデータ) (2020-11-10T11:19:07Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。