論文の概要: Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates
- arxiv url: http://arxiv.org/abs/2204.04674v1
- Date: Sun, 10 Apr 2022 12:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 14:36:50.903991
- Title: Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates
- Title(参考訳): 私の運転観察モデルは自信過剰か?
信頼度・信頼度評価のための入力誘導校正ネットワーク
- Authors: Alina Roitberg, Kunyu Peng, David Schneider, Kailun Yang, Marios
Koulakis, Manuel Martinez, Rainer Stiefelhagen
- Abstract要約: 運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 23.449073032842076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Driver observation models are rarely deployed under perfect conditions. In
practice, illumination, camera placement and type differ from the ones present
during training and unforeseen behaviours may occur at any time. While
observing the human behind the steering wheel leads to more intuitive
human-vehicle-interaction and safer driving, it requires recognition algorithms
which do not only predict the correct driver state, but also determine their
prediction quality through realistic and interpretable confidence measures.
Reliable uncertainty estimates are crucial for building trust and are a serious
obstacle for deploying activity recognition networks in real driving systems.
In this work, we for the first time examine how well the confidence values of
modern driver observation models indeed match the probability of the correct
outcome and show that raw neural network-based approaches tend to significantly
overestimate their prediction quality. To correct this misalignment between the
confidence values and the actual uncertainty, we consider two strategies.
First, we enhance two activity recognition models often used for driver
observation with temperature scaling-an off-the-shelf method for confidence
calibration in image classification. Then, we introduce Calibrated Action
Recognition with Input Guidance (CARING)-a novel approach leveraging an
additional neural network to learn scaling the confidences depending on the
video representation. Extensive experiments on the Drive&Act dataset
demonstrate that both strategies drastically improve the quality of model
confidences, while our CARING model out-performs both, the original
architectures and their temperature scaling enhancement, leading to best
uncertainty estimates.
- Abstract(参考訳): 運転観察モデルは完璧な条件下で展開されることは滅多にない。
実際には、照明、カメラ配置、タイプは訓練中に存在するものと異なり、予期せぬ行動はいつでも起こる。
ステアリングホイールの後ろの人間を観察すると、より直感的な人間の車間相互作用とより安全な運転につながるが、認識アルゴリズムは正しい運転状態を予測するだけでなく、現実的で解釈可能な信頼度測定によって予測品質を決定する必要がある。
信頼性の高い不確実性推定は信頼の構築に不可欠であり、実際の運転システムに活動認識ネットワークを展開する上で深刻な障害となる。
本研究では,現代のドライバ観測モデルの信頼度が,正しい結果の確率に実際に合致するかどうかを初めて検証し,生のニューラルネットワークに基づくアプローチが予測品質を著しく過大評価する傾向があることを示す。
信頼度値と実際の不確実性との相違を正すために,我々は2つの戦略を検討する。
まず,画像分類における信頼度校正のための温度スケーリング法を用いて,運転者の観察によく使用される2つの行動認識モデルを強化する。
次に,入力誘導(キャリング)によるキャリブレーション動作認識を提案する。ビデオ表現による信頼性のスケーリングを学ぶために,追加のニューラルネットワークを活用する新しいアプローチである。
Drive&Actデータセットの大規模な実験では、どちらの戦略もモデルの信頼性を劇的に向上させ、CARINGモデルはオリジナルのアーキテクチャと温度スケーリングの強化の両方に優れており、最良の不確実性評価につながっている。
関連論文リスト
- ReliOcc: Towards Reliable Semantic Occupancy Prediction via Uncertainty Learning [26.369237406972577]
視覚中心のセマンティック占有予測は、自律運転において重要な役割を果たす。
カメラからのセマンティック占有率を予測するための信頼性を探求する研究は、まだ少ない。
本稿では,カメラによる占有ネットワークの信頼性向上を目的としたReliOccを提案する。
論文 参考訳(メタデータ) (2024-09-26T16:33:16Z) - Automatic AI controller that can drive with confidence: steering vehicle with uncertainty knowledge [3.131134048419781]
本研究は,機械学習フレームワークを用いた車両の横方向制御システムの開発に焦点をあてる。
確率論的学習モデルであるベイズニューラルネットワーク(BNN)を用いて不確実性定量化に対処する。
信頼しきい値を確立することで、手動による介入をトリガーし、安全なパラメータの外で動作した場合に、制御がアルゴリズムから解放されることを保証できます。
論文 参考訳(メタデータ) (2024-04-24T23:22:37Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z) - Confidence-Calibrated Face and Kinship Verification [8.570969129199467]
検証モデルにより、類似度スコアを任意の顔対に対する信頼スコアに変換することができる効果的な信頼度尺度を導入する。
また,実装が容易で,既存の検証モデルにも容易に適用可能な,信頼性校正アプローチであるAngular Scaling(ASC)を提案する。
我々の知識を最大限に活用するために、我々の研究は、現代の顔と親族関係の検証タスクに対する、初めての包括的信頼度校正ソリューションを提示した。
論文 参考訳(メタデータ) (2022-10-25T10:43:46Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Uncertainty-sensitive Activity Recognition: a Reliability Benchmark and
the CARING Models [37.60817779613977]
本稿では,現代の行動認識アーキテクチャの信頼度が,正しい結果の確率を反映していることを示す最初の研究を行う。
新たなキャリブレーションネットワークを通じて、モデル出力を現実的な信頼性推定に変換する新しいアプローチを紹介します。
論文 参考訳(メタデータ) (2021-01-02T15:41:21Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。