論文の概要: Architectural patterns for handling runtime uncertainty of data-driven
models in safety-critical perception
- arxiv url: http://arxiv.org/abs/2206.06838v1
- Date: Tue, 14 Jun 2022 13:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:09:14.391858
- Title: Architectural patterns for handling runtime uncertainty of data-driven
models in safety-critical perception
- Title(参考訳): 安全クリティカル認知におけるデータ駆動モデルの実行時不確実性を扱うアーキテクチャパターン
- Authors: Janek Gro{\ss}, Rasmus Adler, Michael Kl\"as, Jan Reich, Lisa
J\"ockel, Roman Gansch
- Abstract要約: 不確実性推定に対処するためのアーキテクチャパターンを新たに提案する。
安全性と性能向上に関して,4つのパターンを質的,定量的に評価した。
筆者らは,運転状況の文脈情報を考慮することで,運転状況の固有のリスクに応じて,多かれ少なかれ不確実性を受け入れることができると結論付けた。
- 参考スコア(独自算出の注目度): 1.7616042687330642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven models (DDM) based on machine learning and other AI techniques
play an important role in the perception of increasingly autonomous systems.
Due to the merely implicit definition of their behavior mainly based on the
data used for training, DDM outputs are subject to uncertainty. This poses a
challenge with respect to the realization of safety-critical perception tasks
by means of DDMs. A promising approach to tackling this challenge is to
estimate the uncertainty in the current situation during operation and adapt
the system behavior accordingly. In previous work, we focused on runtime
estimation of uncertainty and discussed approaches for handling uncertainty
estimations. In this paper, we present additional architectural patterns for
handling uncertainty. Furthermore, we evaluate the four patterns qualitatively
and quantitatively with respect to safety and performance gains. For the
quantitative evaluation, we consider a distance controller for vehicle
platooning where performance gains are measured by considering how much the
distance can be reduced in different operational situations. We conclude that
the consideration of context information of the driving situation makes it
possible to accept more or less uncertainty depending on the inherent risk of
the situation, which results in performance gains.
- Abstract(参考訳): 機械学習やその他のAI技術に基づくデータ駆動モデル(DDM)は、ますます自律的なシステムに対する認識において重要な役割を果たす。
トレーニングに使用されるデータに基づいた単に暗黙的な振る舞いの定義のため、DDM出力は不確実性にさらされる。
このことは、DDMによる安全クリティカルな認識タスクの実現に関する課題を提起する。
この課題に取り組むための有望なアプローチは、運用中の現在の状況における不確実性を推定し、それに応じてシステム動作を適用することである。
前回の研究では不確実性のランタイム推定に注目し,不確実性推定を扱うためのアプローチについて議論した。
本稿では,不確実性を扱うための追加のアーキテクチャパターンを提案する。
さらに,安全性と性能向上に関して,4つのパターンを質的,定量的に評価した。
定量的評価のために, 異なる運転状況下での走行距離の低減を考慮し, 性能向上を計測する車両小隊用距離制御装置について検討する。
本研究は,運転状況の文脈情報の考察により,運転状況固有のリスクに応じて,多かれ少なかれ不確実性を受け入れることが可能であり,その結果,性能が向上することを示す。
関連論文リスト
- Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Entropy-Based Uncertainty Modeling for Trajectory Prediction in Autonomous Driving [9.365269316773219]
我々は、不確実性の定量化、分解、およびモデル構成の影響に焦点を当てた全体論的アプローチを採用する。
提案手法は,不確実性を測定するための理論に基づく情報理論に基づく手法である。
我々はnuScenesデータセットに関する広範な実験を行い、異なるモデルアーキテクチャと構成が不確実性定量化とモデルロバスト性にどのように影響するかを評価する。
論文 参考訳(メタデータ) (2024-10-02T15:02:32Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Improving Explainable Object-induced Model through Uncertainty for
Automated Vehicles [13.514721609660521]
最近の説明可能な自動車両(AV)は、動作の説明を提供しながら、固有の不確実性に関連する重要な情報を無視している。
本研究は、意思決定の場面におけるオブジェクトの役割を優先する「対象誘導型」モデルアプローチに基づく。
また、不確実性によって導かれる先進的なトレーニング戦略についても検討する。
論文 参考訳(メタデータ) (2024-02-23T19:14:57Z) - Scope Compliance Uncertainty Estimate [0.4262974002462632]
SafeMLはそのような監視を行うためのモデルに依存しないアプローチである。
この研究は、二項決定を連続計量に変換することによってこれらの制限に対処する。
論文 参考訳(メタデータ) (2023-12-17T19:44:20Z) - Measuring the Confidence of Traffic Forecasting Models: Techniques,
Experimental Comparison and Guidelines towards Their Actionability [7.489793155793319]
不確実性推定は、予測結果に対するモデルの信頼性に関する強化された情報を提供する。
機械学習モデルで測定できるさまざまなタイプの不確実性に関して、微妙なコンセンサスがあります。
この研究は、文献で利用可能なさまざまな技術と不確実性のメトリクスをレビューすることによって、この研究の欠如をカバーすることを目的としている。
論文 参考訳(メタデータ) (2022-10-28T10:49:55Z) - Injecting Planning-Awareness into Prediction and Detection Evaluation [42.228191984697006]
私たちは一歩後退して、現在の評価指標を批判的に評価し、タスク対応メトリクスを、デプロイされるシステムのパフォーマンスのより良い測定基準として提案します。
実世界の自律運転データとともに、実世界のシミュレーション実験により、提案したタスク認識メトリクスが結果非対称性を考慮でき、モデルのクローズドループ性能をよりよく推定できることを確認した。
論文 参考訳(メタデータ) (2021-10-07T08:52:48Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - On the uncertainty of self-supervised monocular depth estimation [52.13311094743952]
単眼深度推定のための自己監督的パラダイムは、基礎的な真理アノテーションを全く必要としないため、非常に魅力的である。
我々は,このタスクの不確かさを推定する方法と,これが深さ精度にどのように影響するかを初めて検討する。
自己教師型アプローチに特化して設計された,斬新な手法を提案する。
論文 参考訳(メタデータ) (2020-05-13T09:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。