論文の概要: Double-Uncertainty Weighted Method for Semi-supervised Learning
- arxiv url: http://arxiv.org/abs/2010.09298v1
- Date: Mon, 19 Oct 2020 08:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:09:04.074131
- Title: Double-Uncertainty Weighted Method for Semi-supervised Learning
- Title(参考訳): 半教師付き学習のための二重未確認重み付け法
- Authors: Yixin Wang, Yao Zhang, Jiang Tian, Cheng Zhong, Zhongchao Shi, Yang
Zhang, Zhiqiang He
- Abstract要約: 教師-学生モデルに基づく半教師付きセグメンテーションのための二重不確かさ重み付き手法を提案する。
ベイジアンディープラーニングを用いて教師モデルを訓練し,セグメンテーションの不確実性と特徴の不確実性を両立させる。
本手法は,2つの公開医療データセットにおいて,最先端の不確実性に基づく半教師付き手法よりも優れている。
- 参考スコア(独自算出の注目度): 32.484750353853954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though deep learning has achieved advanced performance recently, it remains a
challenging task in the field of medical imaging, as obtaining reliable labeled
training data is time-consuming and expensive. In this paper, we propose a
double-uncertainty weighted method for semi-supervised segmentation based on
the teacher-student model. The teacher model provides guidance for the student
model by penalizing their inconsistent prediction on both labeled and unlabeled
data. We train the teacher model using Bayesian deep learning to obtain
double-uncertainty, i.e. segmentation uncertainty and feature uncertainty. It
is the first to extend segmentation uncertainty estimation to feature
uncertainty, which reveals the capability to capture information among
channels. A learnable uncertainty consistency loss is designed for the
unsupervised learning process in an interactive manner between prediction and
uncertainty. With no ground-truth for supervision, it can still incentivize
more accurate teacher's predictions and facilitate the model to reduce
uncertain estimations. Furthermore, our proposed double-uncertainty serves as a
weight on each inconsistency penalty to balance and harmonize supervised and
unsupervised training processes. We validate the proposed feature uncertainty
and loss function through qualitative and quantitative analyses. Experimental
results show that our method outperforms the state-of-the-art uncertainty-based
semi-supervised methods on two public medical datasets.
- Abstract(参考訳): 近年、深層学習は高度なパフォーマンスを達成しているが、信頼できるラベル付きトレーニングデータを得ることは時間と費用がかかるため、医用画像の分野では難しい課題である。
本稿では教師-学生モデルに基づく半教師付きセグメンテーションのための二重不確かさ重み付き手法を提案する。
教師モデルはラベル付きデータとラベルなしデータの両方に一貫性のない予測を課すことで生徒モデルの指導を提供する。
ベイジアンディープラーニングを用いて教師モデルを訓練し,セグメンテーションの不確実性と特徴の不確実性を両立させる。
セグメンテーションの不確実性推定を特徴的不確実性に拡張した最初の例であり、チャネル間の情報をキャプチャする能力を明らかにする。
学習可能な不確実性一貫性損失は、予測と不確実性の間の対話的な方法で教師なし学習プロセスのために設計される。
教師の予測に対してより正確なインセンティブを与え、不確実な見積もりを減らすためにモデルを促進することができる。
さらに,提案する二重保証は,教師なし・教師なしの訓練プロセスのバランスと調和のために,各非一貫性ペナルティの重みとなる。
提案する特徴不確かさと損失関数を定性的・定量的解析により検証する。
実験の結果,本手法は2つの公開医療データセット上で,最先端の不確実性に基づく半教師付き手法よりも優れていた。
関連論文リスト
- Uncertainty for Active Learning on Graphs [70.44714133412592]
不確実性サンプリングは、機械学習モデルのデータ効率を改善することを目的とした、アクティブな学習戦略である。
予測の不確実性を超えた不確実性サンプリングをベンチマークし、他のアクティブラーニング戦略に対する大きなパフォーマンスギャップを強調します。
提案手法は,データ生成プロセスの観点から基幹的ベイズ不確実性推定法を開発し,不確実性サンプリングを最適クエリへ導く上での有効性を実証する。
論文 参考訳(メタデータ) (2024-05-02T16:50:47Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Modeling the Uncertainty with Maximum Discrepant Students for
Semi-supervised 2D Pose Estimation [57.17120203327993]
半教師付きポーズ推定タスクにおける擬似ラベルの品質を推定する枠組みを提案する。
提案手法は,3つのデータセットに対する半教師付きポーズ推定の性能を向上させる。
論文 参考訳(メタデータ) (2023-11-03T08:11:06Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty-Aware Deep Co-training for Semi-supervised Medical Image
Segmentation [4.935055133266873]
本研究では,モデルが意図的に領域を学習するための新しい不確実性認識方式を提案する。
具体的には,不確実性マップを得るためにモンテカルロサンプリングを推定法として利用する。
後ろ向きのプロセスでは、ネットワークの収束を加速するために、教師なしの損失と教師なしの損失を共同で処理する。
論文 参考訳(メタデータ) (2021-11-23T03:26:24Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Exploring Uncertainty in Deep Learning for Construction of Prediction
Intervals [27.569681578957645]
深層学習における不確実性を探究し,予測区間を構築する。
不確実性ラベルなしで不確実性を学習できる特殊損失関数を設計した。
本手法は予測間隔の構成と不確実性推定とを関連付ける。
論文 参考訳(メタデータ) (2021-04-27T02:58:20Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Getting a CLUE: A Method for Explaining Uncertainty Estimates [30.367995696223726]
微分可能確率モデルからの不確実性推定を解釈する新しい手法を提案する。
提案手法は,データ多様体上に保持しながら,入力の変更方法を示す。
論文 参考訳(メタデータ) (2020-06-11T21:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。