論文の概要: Transductive image segmentation: Self-training and effect of uncertainty
estimation
- arxiv url: http://arxiv.org/abs/2107.08964v1
- Date: Mon, 19 Jul 2021 15:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:54:34.725559
- Title: Transductive image segmentation: Self-training and effect of uncertainty
estimation
- Title(参考訳): トランスダクティブ画像分割:自己学習と不確かさ推定の効果
- Authors: Konstantinos Kamnitsas, Stefan Winzeck, Evgenios N. Kornaropoulos,
Daniel Whitehouse, Cameron Englman, Poe Phyu, Norman Pao, David K. Menon,
Daniel Rueckert, Tilak Das, Virginia F.J. Newcombe, Ben Glocker
- Abstract要約: 半教師付き学習(SSL)は、トレーニング中にラベルのないデータを使用して、より良いモデルを学ぶ。
本研究は、一般化を改善するのではなく、訓練中の最適化に含める際に、未ラベルデータに基づく予測の質に焦点をあてる。
外傷性脳病変のマルチクラスセグメンテーションのための大規模なMRIデータベースを用いた実験は,インダクティブ予測とトランスダクティブ予測との比較において有望な結果を示した。
- 参考スコア(独自算出の注目度): 16.609998086075127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised learning (SSL) uses unlabeled data during training to learn
better models. Previous studies on SSL for medical image segmentation focused
mostly on improving model generalization to unseen data. In some applications,
however, our primary interest is not generalization but to obtain optimal
predictions on a specific unlabeled database that is fully available during
model development. Examples include population studies for extracting imaging
phenotypes. This work investigates an often overlooked aspect of SSL,
transduction. It focuses on the quality of predictions made on the unlabeled
data of interest when they are included for optimization during training,
rather than improving generalization. We focus on the self-training framework
and explore its potential for transduction. We analyze it through the lens of
Information Gain and reveal that learning benefits from the use of calibrated
or under-confident models. Our extensive experiments on a large MRI database
for multi-class segmentation of traumatic brain lesions shows promising results
when comparing transductive with inductive predictions. We believe this study
will inspire further research on transductive learning, a well-suited paradigm
for medical image analysis.
- Abstract(参考訳): 半教師付き学習(SSL)は、トレーニング中にラベルのないデータを使用してより良いモデルを学ぶ。
医療画像セグメンテーションのためのSSLに関する研究は、主に見えないデータに対するモデル一般化の改善に重点を置いていた。
しかし,本研究の主な関心は一般化ではなく,モデル開発中に利用可能となる特定のラベルのないデータベース上での最適な予測を得ることである。
例えば、画像表現型を抽出するための集団研究がある。
この研究はSSL、トランスダクションの見落とされがちな側面を調査します。
一般化を改善するのではなく、トレーニング中の最適化に含まれた非ラベルデータに対する予測の質に焦点を当てている。
自己学習フレームワークに注目し,トランスダクションの可能性を探る。
我々は、情報ゲインのレンズを通して分析し、キャリブレートモデルやアンダー信頼モデルの学習効果を明らかにする。
外傷性脳病変のマルチクラスセグメンテーションのための大脳mriデータベースに関する広範な実験は、トランスダクティブとインダクティブ予測の比較において有望な結果を示している。
この研究は、医用画像解析のパラダイムであるトランスダクティブラーニング(transductive learning)のさらなる研究を促すだろうと考えている。
関連論文リスト
- Probabilistic 3D Correspondence Prediction from Sparse Unsegmented Images [1.2179682412409507]
スパース画像データから3次元対応を予測する統一モデルであるSPI-CorrNetを提案する。
LGE MRI左房データセットとAbdomen CT-1K肝データセットを用いた実験により,スパース画像駆動SSMの精度とロバスト性の向上が示された。
論文 参考訳(メタデータ) (2024-07-02T03:56:20Z) - Which Augmentation Should I Use? An Empirical Investigation of Augmentations for Self-Supervised Phonocardiogram Representation Learning [5.438725298163702]
Contrastive Self-Supervised Learning (SSL)はラベル付きデータの不足に対する潜在的な解決策を提供する。
1次元心電図(PCG)分類におけるコントラスト学習の最適化を提案する。
トレーニング分布によっては、完全教師付きモデルの有効性が最大32%低下し、SSLモデルは最大10%低下し、場合によっては改善される。
論文 参考訳(メタデータ) (2023-12-01T11:06:00Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Realistic Data Enrichment for Robust Image Segmentation in
Histopathology [2.248423960136122]
拡散モデルに基づく新しい手法を提案し、不均衡なデータセットを、表現不足なグループから有意な例で拡張する。
本手法は,限定的な臨床データセットを拡張して,機械学習パイプラインのトレーニングに適したものにする。
論文 参考訳(メタデータ) (2023-04-19T09:52:50Z) - Analysing the effectiveness of a generative model for semi-supervised
medical image segmentation [23.898954721893855]
自動セグメンテーションにおける最先端技術は、U-Netのような差別モデルを用いて、教師付き学習のままである。
半教師付き学習(SSL)は、より堅牢で信頼性の高いモデルを得るために、重複のないデータの豊富さを活用する。
セマンティックGANのような深層生成モデルは、医療画像分割問題に取り組むための真に実行可能な代替手段である。
論文 参考訳(メタデータ) (2022-11-03T15:19:59Z) - Evaluating deep transfer learning for whole-brain cognitive decoding [11.898286908882561]
転送学習(TL)は、少数のサンプルを持つデータセットにおける深層学習(DL)モデルの性能向上に適している。
本稿では,全脳機能型磁気共鳴画像(fMRI)データから認識状態の復号化にDLモデルを適用するためのTLを評価した。
論文 参考訳(メタデータ) (2021-11-01T15:44:49Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。