論文の概要: Taking Class Imbalance Into Account in Open Set Recognition Evaluation
- arxiv url: http://arxiv.org/abs/2402.06331v1
- Date: Fri, 9 Feb 2024 11:15:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:18:56.008190
- Title: Taking Class Imbalance Into Account in Open Set Recognition Evaluation
- Title(参考訳): オープン集合認識評価におけるクラス不均衡の考慮
- Authors: Joanna Komorniczak and Pawel Ksieniewicz
- Abstract要約: 本研究はオープンセット認識のための手法の評価について考察する。
問題解析の結果として,本分野における手法評価のガイドラインを提示する。
- 参考スコア(独自算出の注目度): 0.3626013617212667
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years Deep Neural Network-based systems are not only increasing in
popularity but also receive growing user trust. However, due to the
closed-world assumption of such systems, they cannot recognize samples from
unknown classes and often induce an incorrect label with high confidence.
Presented work looks at the evaluation of methods for Open Set Recognition,
focusing on the impact of class imbalance, especially in the dichotomy between
known and unknown samples. As an outcome of problem analysis, we present a set
of guidelines for evaluation of methods in this field.
- Abstract(参考訳): 近年、ディープニューラルネットワークベースのシステムは人気が高まっているだけでなく、ユーザーの信頼も増している。
しかし、そのようなシステムのクローズドワールドの仮定により、未知のクラスからのサンプルを認識できず、しばしば不正確なラベルを高い信頼性で引き起こす。
本研究は,クラス不均衡の影響に着目したオープンセット認識手法の評価,特に未知と未知の標本の二分法に焦点をあてたものである。
問題分析の結果として,本分野における手法評価のための一連のガイドラインを提案する。
関連論文リスト
- Open Set Recognition for Random Forest [4.266270583680947]
実世界の分類タスクでは、全てのクラスを消費するトレーニング例を収集することは困難である。
ランダム森林に対するオープンセット認識機能を実現するための新しい手法を提案する。
提案手法は,合成データセットと実世界のデータセットの両方で検証される。
論文 参考訳(メタデータ) (2024-08-01T04:21:14Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Managing the unknown: a survey on Open Set Recognition and tangential
areas [7.345136916791223]
オープンセット認識モデルは、テストフェーズに到達したサンプルから未知のクラスを検出すると同時に、既知のクラスに属するサンプルの分類において優れたパフォーマンスを維持することができる。
本稿では,オープンセット認識に関する最近の文献を包括的に概観し,この分野と他の機械学習研究領域との共通プラクティス,制限,関連性を明らかにする。
私たちの研究は、オープンな問題も明らかにし、より安全な人工知能手法への将来の取り組みを動機づけ、具体化するいくつかの研究方向を提案する。
論文 参考訳(メタデータ) (2023-12-14T10:08:12Z) - OpenMix: Exploring Outlier Samples for Misclassification Detection [37.43981354073841]
我々は、非ターゲットクラスからのラベル付きサンプルとして、容易に利用できる外れ値サンプルを利用して、誤分類エラーを検出する。
オープンワールドの知識を取り入れたOpenMixという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-30T01:47:23Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Benchmarking common uncertainty estimation methods with
histopathological images under domain shift and label noise [62.997667081978825]
リスクの高い環境では、深層学習モデルは不確実性を判断し、誤分類の可能性がかなり高い場合に入力を拒否しなければなりません。
我々は,全スライド画像の分類において,最もよく使われている不確実性と頑健さの厳密な評価を行う。
我々は一般的に,手法のアンサンブルが,ドメインシフトやラベルノイズに対するロバスト性の向上とともに,より良い不確実性評価につながることを観察する。
論文 参考訳(メタデータ) (2023-01-03T11:34:36Z) - What is Flagged in Uncertainty Quantification? Latent Density Models for
Uncertainty Categorization [68.15353480798244]
不確実性定量化(UQ)は、信頼できる機械学習モデルを作成する上で不可欠である。
近年、疑わしい事例にフラグを立てるUQ手法が急上昇している。
分類タスクにおけるUQ手法によってフラグ付けされた不確実な例を分類する枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-11T19:47:00Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Domain Knowledge Alleviates Adversarial Attacks in Multi-Label
Classifiers [34.526394646264734]
機械学習に基づく分類器に対する敵対的攻撃は、防御機構とともに、広く研究されている。
本稿では,ドメイン知識の活用が不整合予測の自然な方法となり得るマルチラベル分類に注目を向ける。
この直感を,一階述語論理知識を制約に変換し,半教師付き学習問題に注入する枠組みで検討する。
論文 参考訳(メタデータ) (2020-06-06T10:24:54Z) - Conditional Gaussian Distribution Learning for Open Set Recognition [10.90687687505665]
オープンセット認識のための条件付きガウス分布学習(CGDL)を提案する。
未知のサンプルを検出することに加えて、異なる潜伏特徴を異なるガウスモデルに近似させることにより、既知のサンプルを分類することもできる。
いくつかの標準画像に対する実験により,提案手法はベースライン法を著しく上回り,新たな最先端結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-03-19T14:32:08Z) - Pitfalls of In-Domain Uncertainty Estimation and Ensembling in Deep
Learning [70.72363097550483]
本研究では,画像分類における領域内不確実性に着目した。
そこで本研究では,ディープアンサンブル等価スコア(DEE)を導入する。
論文 参考訳(メタデータ) (2020-02-15T23:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。