論文の概要: Learning for Open-World Calibration with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2305.12039v1
- Date: Fri, 19 May 2023 23:52:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:17:57.094545
- Title: Learning for Open-World Calibration with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いたオープンワールド校正の学習
- Authors: Qin Zhang, Dongsheng An, Tianjun Xiao, Tong He, Qingming Tang, Ying
Nian Wu, Joseph Tighe, Yifan Xing
- Abstract要約: 本研究では,クラスタリングにコンパクト化対策を取り入れたオープンワールド認識のためのしきい値校正問題に取り組む。
提案手法は, (i) 高次元視覚埋め込み空間における近傍画像間の表現構造は, オープンワールドへの移動性を促進するために活用できる, 強い自己相似性を有する。
そこで我々は,グラフニューラルネットワーク(GNN)を中心とした統一フレームワークを設計し,擬似ラベルと表現のコンパクトさを示すvMF濃度を共同で予測する。
- 参考スコア(独自算出の注目度): 57.7378260096861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the problem of threshold calibration for open-world recognition by
incorporating representation compactness measures into clustering. Unlike the
open-set recognition which focuses on discovering and rejecting the unknown,
open-world recognition learns robust representations that are generalizable to
disjoint unknown classes at test time. Our proposed method is based on two key
observations: (i) representation structures among neighbouring images in high
dimensional visual embedding spaces have strong self-similarity which can be
leveraged to encourage transferability to the open world, (ii) intra-class
embedding structures can be modeled with the marginalized von Mises-Fisher
(vMF) probability, whose correlation with the true positive rate is
dataset-invariant. Motivated by these, we design a unified framework centered
around a graph neural network (GNN) to jointly predict the pseudo-labels and
the vMF concentrations which indicate the representation compactness. These
predictions can be converted into statistical estimations for recognition
accuracy, allowing more robust calibration of the distance threshold to achieve
target utility for the open-world classes. Results on a variety of visual
recognition benchmarks demonstrate the superiority of our method over
traditional posthoc calibration methods for the open world, especially under
distribution shift.
- Abstract(参考訳): 本稿では,クラスタリングに表現のコンパクト度を組み込んだオープンワールド認識のためのしきい値校正問題に取り組む。
未知のクラスの発見と拒否に焦点を当てたオープンセット認識とは異なり、オープンワールド認識はテスト時に未知のクラスを分離するために一般化された頑健な表現を学習する。
提案手法は2つの重要な観測結果に基づく。
(i)高次元視覚埋め込み空間における近傍画像間の表現構造は、オープンワールドへの移動性を促進するために活用できる強い自己相似性を有する。
(ii)クラス内埋め込み構造はマージン化フォン・ミセス・フィッシャー(vmf)確率でモデル化することができ、真の正の確率との相関はデータセット不変である。
そこで我々は,グラフニューラルネットワーク(GNN)を中心とした統一フレームワークを設計し,擬似ラベルと表現のコンパクトさを示すvMF濃度を共同で予測する。
これらの予測は、認識精度の統計的推定に変換でき、オープンワールドクラスの目標ユーティリティを達成するために、距離しきい値のより堅牢なキャリブレーションを可能にする。
様々な視覚認知ベンチマークの結果,特に分布シフト下では,従来のポストホックキャリブレーション法よりも優れた手法が得られた。
関連論文リスト
- Calibrating Deep Neural Network using Euclidean Distance [5.675312975435121]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - C-TPT: Calibrated Test-Time Prompt Tuning for Vision-Language Models via Text Feature Dispersion [54.81141583427542]
深層学習において,ラベル付きデータを必要としない微調整手法としてテスト時間適応が注目されている。
本稿では,CLIPの固有特性を利用したテスト時プロンプトチューニング時の校正について検討する。
そこで本研究では,C-TPT(Calibrated Test-time Prompt Tuning)という,キャリブレーションの強化によるテスト時間中のプロンプトの最適化手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T04:08:29Z) - Threshold-Consistent Margin Loss for Open-World Deep Metric Learning [42.03620337000911]
画像検索にDeep Metric Learning (DML) で使われている既存の損失は、しばしば非均一なクラス内およびクラス間表現構造に繋がる。
不整合はしばしば、商用画像検索システムを展開する際のしきい値選択過程を複雑にする。
クラス間の動作特性の分散を定量化するOPIS(Operating-Point-Inconsistency-Score)と呼ばれる,新しい分散に基づく尺度を提案する。
論文 参考訳(メタデータ) (2023-07-08T21:16:41Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - OpenAUC: Towards AUC-Oriented Open-Set Recognition [151.5072746015253]
従来の機械学習は、トレーニングとテストセットが同じラベル空間を共有するという密接な前提に従っている。
Open-Set Recognition (OSR) は、クローズセットサンプルとオープンセットサンプルの両方で正確な予測を行うことを目的としている。
これらの問題を解決するために,OpenAUCという新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2022-10-22T08:54:15Z) - Sample-dependent Adaptive Temperature Scaling for Improved Calibration [95.7477042886242]
ニューラルネットワークの誤りを補うポストホックアプローチは、温度スケーリングを実行することだ。
入力毎に異なる温度値を予測し、信頼度と精度のミスマッチを調整することを提案する。
CIFAR10/100およびTiny-ImageNetデータセットを用いて,ResNet50およびWideResNet28-10アーキテクチャ上で本手法をテストする。
論文 参考訳(メタデータ) (2022-07-13T14:13:49Z) - Evaluating Uncertainty Calibration for Open-Set Recognition [5.8022510096020525]
ディープニューラルネットワーク(DNN)は、アウト・オブ・ディストリビューション(OOD)データに過信的な確率を提供する。
我々は,OODデータに対する従来のキャリブレーション手法とは大きく異なる方法で,オープンセット条件に対する一般的なキャリブレーション手法を評価する。
論文 参考訳(メタデータ) (2022-05-15T02:08:35Z) - Calibrated neighborhood aware confidence measure for deep metric
learning [0.0]
深度メートル法学習は、数ショット学習、画像検索、およびオープンセット分類の問題にうまく適用されてきた。
深層学習モデルの信頼度を測定し、信頼できない予測を特定することは、まだオープンな課題です。
本稿では,その分類精度をよく反映した校正・解釈可能な信頼度尺度の定義に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-08T21:05:38Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。