論文の概要: Uncertainty-sensitive Activity Recognition: a Reliability Benchmark and
the CARING Models
- arxiv url: http://arxiv.org/abs/2101.00468v1
- Date: Sat, 2 Jan 2021 15:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:17:12.849649
- Title: Uncertainty-sensitive Activity Recognition: a Reliability Benchmark and
the CARING Models
- Title(参考訳): 不確かさに敏感な活動認識:信頼性ベンチマークとキャリングモデル
- Authors: Alina Roitberg, Monica Haurilet, Manuel Martinez and Rainer
Stiefelhagen
- Abstract要約: 本稿では,現代の行動認識アーキテクチャの信頼度が,正しい結果の確率を反映していることを示す最初の研究を行う。
新たなキャリブレーションネットワークを通じて、モデル出力を現実的な信頼性推定に変換する新しいアプローチを紹介します。
- 参考スコア(独自算出の注目度): 37.60817779613977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Beyond assigning the correct class, an activity recognition model should also
be able to determine, how certain it is in its predictions. We present the
first study of how welthe confidence values of modern action recognition
architectures indeed reflect the probability of the correct outcome and propose
a learning-based approach for improving it. First, we extend two popular action
recognition datasets with a reliability benchmark in form of the expected
calibration error and reliability diagrams. Since our evaluation highlights
that confidence values of standard action recognition architectures do not
represent the uncertainty well, we introduce a new approach which learns to
transform the model output into realistic confidence estimates through an
additional calibration network. The main idea of our Calibrated Action
Recognition with Input Guidance (CARING) model is to learn an optimal scaling
parameter depending on the video representation. We compare our model with the
native action recognition networks and the temperature scaling approach - a
wide spread calibration method utilized in image classification. While
temperature scaling alone drastically improves the reliability of the
confidence values, our CARING method consistently leads to the best uncertainty
estimates in all benchmark settings.
- Abstract(参考訳): 正しいクラスを割り当てる以外に、アクティビティ認識モデルは、その予測にどの程度の確証があるかを判断できる必要があります。
本稿では、現代の行動認識アーキテクチャの信頼度が正しい結果の確率を実際に反映することを示す最初の研究を行い、それを改善するための学習に基づくアプローチを提案する。
まず,2つの一般的な行動認識データセットを,期待される校正誤差と信頼性図を用いて信頼性ベンチマークで拡張する。
本評価では,標準動作認識アーキテクチャの信頼性値が不確かさをよく表さないことを強調しているので,新たなキャリブレーションネットワークを通じてモデル出力を現実的な信頼度推定に変換する手法を提案する。
CARING(Callibrated Action Recognition with Input Guidance)モデルの主な考え方は、ビデオ表現に依存する最適なスケーリングパラメータを学習することである。
本モデルとネイティブな行動認識ネットワークと温度スケーリング手法を比較し,画像分類に応用した広汎なキャリブレーション手法を提案する。
温度スケーリングだけで信頼性値の信頼性が大幅に向上する一方、我々のCARing法は、全てのベンチマーク設定において、常に最良の不確実性推定結果をもたらす。
関連論文リスト
- Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Uncertainty Estimation for Safety-critical Scene Segmentation via
Fine-grained Reward Maximization [12.79542334840646]
不確実性推定は、安全クリティカルなシナリオにおけるディープセグメンテーションモデルの将来の信頼性の高い展開において重要な役割を果たす。
本研究では,不確実性推定に対処する新たな微粒化報酬(FGRM)フレームワークを提案する。
本手法は,不確実性推定のキャリブレーション指標のすべてに対して,最先端の手法よりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2023-11-05T17:43:37Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Two Sides of Miscalibration: Identifying Over and Under-Confidence
Prediction for Network Calibration [1.192436948211501]
安全クリティカルなタスクにおける信頼性予測には、ディープニューラルネットワークの信頼性校正が不可欠である。
ミススキャリブレーションは、過信と/または過信をモデル化する。
校正点とクラス別校正点を同定するために,新しい校正点である校正点を導入する。
クラスワイドの誤校正スコアをプロキシとして使用して,過度かつ過度に対処可能な校正手法を設計する。
論文 参考訳(メタデータ) (2023-08-06T17:59:14Z) - Trust, but Verify: Using Self-Supervised Probing to Improve
Trustworthiness [29.320691367586004]
我々は、訓練されたモデルに対する自信の過剰な問題をチェックおよび緩和することのできる、自己教師型探索の新しいアプローチを導入する。
既存の信頼性関連手法に対して,プラグイン・アンド・プレイ方式で柔軟に適用可能な,シンプルで効果的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-06T08:57:20Z) - Confidence-Calibrated Face and Kinship Verification [8.570969129199467]
検証モデルにより、類似度スコアを任意の顔対に対する信頼スコアに変換することができる効果的な信頼度尺度を導入する。
また,実装が容易で,既存の検証モデルにも容易に適用可能な,信頼性校正アプローチであるAngular Scaling(ASC)を提案する。
我々の知識を最大限に活用するために、我々の研究は、現代の顔と親族関係の検証タスクに対する、初めての包括的信頼度校正ソリューションを提示した。
論文 参考訳(メタデータ) (2022-10-25T10:43:46Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - Inducing Predictive Uncertainty Estimation for Face Recognition [102.58180557181643]
顔画像の「マッドペア」から画像品質訓練データを自動的に生成する手法を提案する。
生成したデータを用いて、顔画像の信頼度を推定するために、PCNetと呼ばれる軽量な予測信頼ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-09-01T17:52:00Z) - Binary Classification from Positive Data with Skewed Confidence [85.18941440826309]
肯定的信頼度(Pconf)分類は、有望な弱教師付き学習法である。
実際には、信頼はアノテーションプロセスで生じるバイアスによって歪められることがある。
本稿では、スキュード信頼度のパラメータ化モデルを導入し、ハイパーパラメータを選択する方法を提案する。
論文 参考訳(メタデータ) (2020-01-29T00:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。