論文の概要: Improving Training and Inference of Face Recognition Models via Random
Temperature Scaling
- arxiv url: http://arxiv.org/abs/2212.01015v1
- Date: Fri, 2 Dec 2022 08:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 15:55:55.717375
- Title: Improving Training and Inference of Face Recognition Models via Random
Temperature Scaling
- Title(参考訳): ランダム温度スケーリングによる顔認識モデルのトレーニングと推論の改善
- Authors: Lei Shang, Mouxiao Huang, Wu Shi, Yuchen Liu, Yang Liu, Fei Wang,
Baigui Sun, Xuansong Xie, Yu Qiao
- Abstract要約: ランダム温度スケーリング(RTS)は,信頼度の高い顔認識アルゴリズムを学習するために提案される。
RTSは、顔認識とアウト・オブ・ディストリビューション検出タスクの両方で最高のパフォーマンスを達成することができる。
提案されたモジュールは軽量であり、モデルに無視できるコストしか加えない。
- 参考スコア(独自算出の注目度): 45.33976405587231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data uncertainty is commonly observed in the images for face recognition
(FR). However, deep learning algorithms often make predictions with high
confidence even for uncertain or irrelevant inputs. Intuitively, FR algorithms
can benefit from both the estimation of uncertainty and the detection of
out-of-distribution (OOD) samples. Taking a probabilistic view of the current
classification model, the temperature scalar is exactly the scale of
uncertainty noise implicitly added in the softmax function. Meanwhile, the
uncertainty of images in a dataset should follow a prior distribution. Based on
the observation, a unified framework for uncertainty modeling and FR, Random
Temperature Scaling (RTS), is proposed to learn a reliable FR algorithm. The
benefits of RTS are two-fold. (1) In the training phase, it can adjust the
learning strength of clean and noisy samples for stability and accuracy. (2) In
the test phase, it can provide a score of confidence to detect uncertain,
low-quality and even OOD samples, without training on extra labels. Extensive
experiments on FR benchmarks demonstrate that the magnitude of variance in RTS,
which serves as an OOD detection metric, is closely related to the uncertainty
of the input image. RTS can achieve top performance on both the FR and OOD
detection tasks. Moreover, the model trained with RTS can perform robustly on
datasets with noise. The proposed module is light-weight and only adds
negligible computation cost to the model.
- Abstract(参考訳): データ不確実性は、顔認識(FR)の画像でよく見られる。
しかし、ディープラーニングアルゴリズムは、不確実または無関係な入力であっても、高い信頼性で予測を行うことが多い。
直感的には、FRアルゴリズムは不確実性の推定とアウト・オブ・ディストリビューション(OOD)サンプルの検出の両方から恩恵を受けることができる。
現在の分類モデルの確率論的視点から、温度スカラーはソフトマックス関数に暗黙的に付加される不確実性雑音の尺度である。
一方、データセット内の画像の不確実性は、以前の分布に従うべきである。
本研究では, 不確実性モデリングとfrの統一フレームワークであるランダム温度スケーリング(rts)を提案し, 信頼性の高いfrアルゴリズムを学習する。
RTSの利点は2つある。
1) トレーニング段階では, クリーンでノイズの多いサンプルの学習強度を安定性と精度に調整することができる。
2)試験段階では,ラベルを付加することなく,不確実性,低品質,さらにはOODサンプルの検出に信頼性のスコアを与えることができる。
FRベンチマークの大規模な実験により、OOD検出指標として機能するRTSのばらつきの大きさは、入力画像の不確かさと密接に関連していることが示された。
RTSはFRとOODの両方検出タスクで最高のパフォーマンスを達成することができる。
さらに、RTSでトレーニングされたモデルは、ノイズのあるデータセットで堅牢に実行できる。
提案するモジュールは軽量であり、モデルに無視可能な計算コストを追加するのみである。
関連論文リスト
- Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Uncertainty-aware GAN with Adaptive Loss for Robust MRI Image
Enhancement [3.222802562733787]
条件付き生成逆数ネットワーク (GAN) は, 画像-画像-画像マッピングの学習において, 性能が向上している。
本稿では,(i)OODノイズデータに対するロバスト性を考慮した適応損失関数をモデル化し,(ii)予測におけるボクセル当たりの不確かさを推定するGANベースのフレームワークを提案する。
医用画像における2つの重要な応用として, (i) 磁気共鳴画像(MRI) 再構成 (ii) MRI のモダリティ伝搬について検討した。
論文 参考訳(メタデータ) (2021-10-07T11:29:03Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Know Your Limits: Uncertainty Estimation with ReLU Classifiers Fails at
Reliable OOD Detection [0.0]
本稿では, 実験結果について理論的に説明し, 合成データから考察する。
このような技術は、分類設定でOODサンプルを確実に識別できないことを証明します。
論文 参考訳(メタデータ) (2020-12-09T21:35:55Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Data Uncertainty Learning in Face Recognition [23.74716810099911]
不確実性はノイズの多い画像にとって重要であるが、顔認識のために探索されることはめったにない。
不確実性が特徴学習にどのような影響を及ぼすかは不明である。
この研究は、顔認識にデータ不確実性学習を適用します。
論文 参考訳(メタデータ) (2020-03-25T11:40:38Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。