論文の概要: Hyper Evidential Deep Learning to Quantify Composite Classification Uncertainty
- arxiv url: http://arxiv.org/abs/2404.10980v1
- Date: Wed, 17 Apr 2024 01:26:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:43:59.550015
- Title: Hyper Evidential Deep Learning to Quantify Composite Classification Uncertainty
- Title(参考訳): 複合分類の不確かさを定量化する超証拠深層学習
- Authors: Changbin Li, Kangshuo Li, Yuzhe Ou, Lance M. Kaplan, Audun Jøsang, Jin-Hee Cho, Dong Hyun Jeong, Feng Chen,
- Abstract要約: 本稿では,ハイパーエビデンシャルニューラルネットワーク(HENN, Hyper-Evidential Neural Network)と呼ばれる新しいフレームワークが,複合クラスラベルによる予測の不確かさを明示的にモデル化していることを示す。
以上の結果から,HENNは4つの画像データセットに基づいて最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 11.964685090237392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been shown to perform well on exclusive, multi-class classification tasks. However, when different classes have similar visual features, it becomes challenging for human annotators to differentiate them. This scenario necessitates the use of composite class labels. In this paper, we propose a novel framework called Hyper-Evidential Neural Network (HENN) that explicitly models predictive uncertainty due to composite class labels in training data in the context of the belief theory called Subjective Logic (SL). By placing a grouped Dirichlet distribution on the class probabilities, we treat predictions of a neural network as parameters of hyper-subjective opinions and learn the network that collects both single and composite evidence leading to these hyper-opinions by a deterministic DNN from data. We introduce a new uncertainty type called vagueness originally designed for hyper-opinions in SL to quantify composite classification uncertainty for DNNs. Our results demonstrate that HENN outperforms its state-of-the-art counterparts based on four image datasets. The code and datasets are available at: https://github.com/Hugo101/HyperEvidentialNN.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、排他的で多クラスな分類タスクでうまく機能することが示されている。
しかし、異なるクラスに類似した視覚的特徴がある場合、ヒトのアノテータがそれらを区別することが困難になる。
このシナリオは複合クラスラベルの使用を必要とする。
本稿では,学習データにおける複合クラスラベルによる予測不確実性を,主観的論理(SL)と呼ばれる信念理論の文脈で明示的にモデル化する,ハイパーエビデンシャルニューラルネットワーク(HENN)という新しいフレームワークを提案する。
クラス確率にグループ化されたディリクレ分布を配置することにより、ニューラルネットワークの予測を超主観的意見のパラメータとして扱い、データから決定論的DNNによってこれらの超オピニオンにつながる単一および複合的なエビデンスを収集するネットワークを学習する。
本稿では,DNNの複合分類の不確かさを定量化するために,SLにおける過剰オピニオンのために考案された曖昧さという新しい不確実性型を提案する。
以上の結果から,HENNは4つの画像データセットに基づいて最先端の手法よりも優れていることが示された。
コードとデータセットは、https://github.com/Hugo101/HyperEvidentialNN.comで入手できる。
関連論文リスト
- Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - A Hierarchical Fused Quantum Fuzzy Neural Network for Image Classification [8.7057403071943]
我々は新しい階層型融合量子ファジィニューラルネットワーク(HQFNN)を提案した。
HQFNNは量子ニューラルネットワークを使用してファジィニューラルネットワークのファジィメンバシップ関数を学習する。
その結果,提案手法は既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-14T12:09:36Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - Selective Pseudo-label Clustering [42.19193184852487]
ディープニューラルネットワーク(DNN)は、高次元データをクラスタリングする困難なタスクに対処する手段を提供する。
DNNのトレーニングに最も自信のある擬似ラベルのみを用いる選択的擬似ラベルクラスタリングを提案する。
新しいアプローチは、3つの人気のある画像データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-22T13:56:53Z) - Why have a Unified Predictive Uncertainty? Disentangling it using Deep
Split Ensembles [39.29536042476913]
ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に不可欠である。
予測の不確かさを解消するために,概念的に単純な非ベイズ的アプローチ,ディープ・スプリット・アンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-25T19:15:26Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。