論文の概要: Great Models Think Alike: Improving Model Reliability via Inter-Model
Latent Agreement
- arxiv url: http://arxiv.org/abs/2305.01481v1
- Date: Tue, 2 May 2023 15:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 14:08:56.338229
- Title: Great Models Think Alike: Improving Model Reliability via Inter-Model
Latent Agreement
- Title(参考訳): モデル間遅延契約によるモデルの信頼性向上
- Authors: Ailin Deng, Miao Xiong, Bryan Hooi
- Abstract要約: 基礎モデルの潜伏空間と潜伏空間との一致を測ることでモデルの信頼性を推定する。
この不整合問題を克服するために、潜伏空間間での周縁的合意尺度を設計する。
ホック後のモデルにおいて, 近所の合意を予測的信頼度に融合させることで, 信頼性が著しく向上することを示す。
- 参考スコア(独自算出の注目度): 27.067551390457567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable application of machine learning is of primary importance to the
practical deployment of deep learning methods. A fundamental challenge is that
models are often unreliable due to overconfidence. In this paper, we estimate a
model's reliability by measuring \emph{the agreement between its latent space,
and the latent space of a foundation model}. However, it is challenging to
measure the agreement between two different latent spaces due to their
incoherence, \eg, arbitrary rotations and different dimensionality. To overcome
this incoherence issue, we design a \emph{neighborhood agreement measure}
between latent spaces and find that this agreement is surprisingly
well-correlated with the reliability of a model's predictions. Further, we show
that fusing neighborhood agreement into a model's predictive confidence in a
post-hoc way significantly improves its reliability. Theoretical analysis and
extensive experiments on failure detection across various datasets verify the
effectiveness of our method on both in-distribution and out-of-distribution
settings.
- Abstract(参考訳): ディープラーニングの実践的展開において、機械学習の信頼性の高い応用が重要である。
根本的な課題は、モデルが過信のため、しばしば信頼できないことだ。
本稿では,その潜在空間と基礎モデルの潜在空間との一致度を測定することにより,モデルの信頼性を推定する。
しかし、それらの非コヒーレンス、 \eg 、任意の回転、異なる次元性のために、2つの異なる潜在空間間の一致を測定することは困難である。
この不一致を克服するために,我々は潜在空間間の関係性(enmph{neighborhood agreement measure})をデザインし,モデルの予測の信頼性と驚くほど関係があることを見出した。
さらに,近隣合意をモデルの予測信頼度に活用することで,信頼性が大幅に向上することを示す。
各種データセットにまたがる障害検出に関する理論的解析と広範な実験により,本手法の有効性が検証された。
関連論文リスト
- ReliOcc: Towards Reliable Semantic Occupancy Prediction via Uncertainty Learning [26.369237406972577]
視覚中心のセマンティック占有予測は、自律運転において重要な役割を果たす。
カメラからのセマンティック占有率を予測するための信頼性を探求する研究は、まだ少ない。
本稿では,カメラによる占有ネットワークの信頼性向上を目的としたReliOccを提案する。
論文 参考訳(メタデータ) (2024-09-26T16:33:16Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Birds of a Feather Trust Together: Knowing When to Trust a Classifier
via Adaptive Neighborhood Aggregation [30.34223543030105]
我々は、NeighborAggがアダプティブ近隣アグリゲーションを介して2つの重要な情報を利用する方法を示す。
また, 誤り検出の密接な関連課題へのアプローチを拡張し, 偽陰性境界に対する理論的カバレッジを保証する。
論文 参考訳(メタデータ) (2022-11-29T18:43:15Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Improving the Reliability for Confidence Estimation [16.952133489480776]
信頼度推定は、デプロイ中のモデルの予測出力の信頼性を評価することを目的としたタスクである。
これまでの研究は、信頼度推定モデルが持つべき2つの重要な特性を概説してきた。
信頼度推定モデルにおいて、両方の品質を同時に改善できるメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-13T06:34:23Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。