論文の概要: Beyond Confidence: Reliable Models Should Also Consider Atypicality
- arxiv url: http://arxiv.org/abs/2305.18262v2
- Date: Mon, 30 Oct 2023 05:24:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 02:19:07.591049
- Title: Beyond Confidence: Reliable Models Should Also Consider Atypicality
- Title(参考訳): 信頼を超えて:信頼できるモデルは非特異性も考慮すべきである
- Authors: Mert Yuksekgonul, Linjun Zhang, James Zou, Carlos Guestrin
- Abstract要約: サンプルやクラスが非典型的であるかとモデルの予測の信頼性との関係について検討する。
非定型入力や非定型クラスの予測は、より過信であり、精度が低いことを示す。
モデルの信頼性だけでなく,不確かさの定量化や性能向上にも非定型性を用いるべきである。
- 参考スコア(独自算出の注目度): 43.012818086415514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While most machine learning models can provide confidence in their
predictions, confidence is insufficient to understand a prediction's
reliability. For instance, the model may have a low confidence prediction if
the input is not well-represented in the training dataset or if the input is
inherently ambiguous. In this work, we investigate the relationship between how
atypical(rare) a sample or a class is and the reliability of a model's
predictions. We first demonstrate that atypicality is strongly related to
miscalibration and accuracy. In particular, we empirically show that
predictions for atypical inputs or atypical classes are more overconfident and
have lower accuracy. Using these insights, we show incorporating atypicality
improves uncertainty quantification and model performance for discriminative
neural networks and large language models. In a case study, we show that using
atypicality improves the performance of a skin lesion classifier across
different skin tone groups without having access to the group attributes.
Overall, we propose that models should use not only confidence but also
atypicality to improve uncertainty quantification and performance. Our results
demonstrate that simple post-hoc atypicality estimators can provide significant
value.
- Abstract(参考訳): ほとんどの機械学習モデルは予測に自信を与えることができるが、予測の信頼性を理解するには自信が不十分である。
例えば、入力がトレーニングデータセットで十分に表現されていない場合や、入力が本質的に曖昧である場合、モデルは信頼性の低い予測を行うことができる。
本研究では,サンプルやクラスが非典型的(希少)であるかとモデル予測の信頼性の関係について検討する。
まず,非定型性は誤用と正確性に強く関連していることを示す。
特に,非定型入力や非定型クラスの予測が過度に信頼され,精度が低いことを実証的に示す。
これらの知見を用いて,不確かさの定量化とモデル性能の向上を,識別型ニューラルネットワークと大規模言語モデルに適用した。
本報告では,非定型性を用いることで,異なる皮膚トーン群にまたがる皮膚病変分類器の性能が向上することを示す。
全体として,モデルの信頼性だけでなく,不確実性の定量化や性能向上にも非定型性を用いるべきである。
以上の結果から, 簡易な非定型性推定器が有意な価値をもたらすことが示唆された。
関連論文リスト
- Confidence-based Estimators for Predictive Performance in Model Monitoring [0.5399800035598186]
マシンラーニングモデルが本番環境にデプロイされた後、その予測パフォーマンスを監視する必要がある。
近年,地中真実が得られない場合の予測性能を推定する新たな手法が開発されている。
一般的な仮定では、平均信頼度(AC)法はモデル精度の偏りのない一貫した推定器であることが示される。
論文 参考訳(メタデータ) (2024-07-11T16:28:31Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - A roadmap to fair and trustworthy prediction model validation in
healthcare [2.476158303361112]
予測モデルは、開発データを超えて一般化すれば最も有用である。
本稿では,信頼性,公正,信頼性の高い人工知能予測モデルの開発と適用を促進するロードマップを提案する。
論文 参考訳(メタデータ) (2023-04-07T04:24:19Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Confidence and Dispersity Speak: Characterising Prediction Matrix for
Unsupervised Accuracy Estimation [51.809741427975105]
この研究は、ラベルを使わずに、分散シフト下でのモデルの性能を評価することを目的としている。
我々は、両方の特性を特徴付けるのに有効であることが示されている核規範を用いる。
核の基準は既存の手法よりも正確で堅牢であることを示す。
論文 参考訳(メタデータ) (2023-02-02T13:30:48Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Calibrated Selective Classification [34.08454890436067]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Predictive Multiplicity in Probabilistic Classification [25.111463701666864]
確率的分類における予測的乗数性を測定するための枠組みを提案する。
実世界のタスクにおける予測多重度の発生頻度と頻度を実証する。
その結果,予測多重度をより広範囲に報告する必要性が強調された。
論文 参考訳(メタデータ) (2022-06-02T16:25:29Z) - Generalized Adversarial Distances to Efficiently Discover Classifier
Errors [0.0]
高信頼エラーは、モデルがその予測に非常に自信を持っているが間違っている稀な出来事である。
本稿では,機械学習の概念を活用し,逆距離探索の一般化を提案する。
実験結果から, 一般化された手法では, 予測値の信頼度から, 予測値よりも誤差が大きいことがわかった。
論文 参考訳(メタデータ) (2021-02-25T13:31:21Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。