論文の概要: Uncertainty-aware Incremental Learning for Multi-organ Segmentation
- arxiv url: http://arxiv.org/abs/2103.05227v1
- Date: Tue, 9 Mar 2021 05:12:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:59:31.753664
- Title: Uncertainty-aware Incremental Learning for Multi-organ Segmentation
- Title(参考訳): マルチオーガンセグメンテーションのための不確実性認識インクリメンタルラーニング
- Authors: Yuhang Zhou, Xiaoman Zhang, Shixiang Feng, Ya Zhang, and Yanfeng
- Abstract要約: データのないインクリメンタル臓器セグメンテーションシナリオを解決するための新しいインクリメンタルトレーニングフレームワークを提案する。
プライバシー保護のために、独自のトレーニングデータの代わりに、トレーニング済みモデルを使用します。
複数の公開事前学習モデルとマルチオーガニックデータセットMOBAの実験により,本フレームワークの有効性を実証した。
- 参考スコア(独自算出の注目度): 18.841068354234995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing approaches to train a unified multi-organ segmentation model
from several single-organ datasets require simultaneously access multiple
datasets during training. In the real scenarios, due to privacy and ethics
concerns, the training data of the organs of interest may not be publicly
available. To this end, we investigate a data-free incremental organ
segmentation scenario and propose a novel incremental training framework to
solve it. We use the pretrained model instead of its own training data for
privacy protection. Specifically, given a pretrained $K$ organ segmentation
model and a new single-organ dataset, we train a unified $K+1$ organ
segmentation model without accessing any data belonging to the previous
training stages. Our approach consists of two parts: the background label
alignment strategy and the uncertainty-aware guidance strategy. The first part
is used for knowledge transfer from the pretained model to the training model.
The second part is used to extract the uncertainty information from the
pretrained model to guide the whole knowledge transfer process. By combing
these two strategies, more reliable information is extracted from the
pretrained model without original training data. Experiments on multiple
publicly available pretrained models and a multi-organ dataset MOBA have
demonstrated the effectiveness of our framework.
- Abstract(参考訳): 複数の単一組織データセットから統一的なマルチ組織セグメンテーションモデルをトレーニングする既存のアプローチでは、トレーニング中に複数のデータセットに同時にアクセスする必要がある。
実際のシナリオでは、プライバシーと倫理上の懸念のために、関心のある機関のトレーニングデータは公開されない場合があります。
そこで,データフリーインクリメンタル臓器セグメンテーションシナリオを調査し,それを解決するための新たなインクリメンタルトレーニングフレームワークを提案する。
プライバシー保護のために、独自のトレーニングデータの代わりに、トレーニング済みモデルを使用します。
具体的には、事前訓練された$K$オルガンセグメンテーションモデルと新しい単一臓器データセットを考えると、以前のトレーニング段階に属するデータにアクセスせずに、統一された$K+1$オルガンセグメンテーションモデルをトレーニングする。
我々のアプローチは背景ラベルアライメント戦略と不確実性認識ガイダンス戦略の2つの部分からなる。
最初の部分は、予備モデルからトレーニングモデルへの知識転送に使用されます。
第2部は、事前訓練されたモデルから不確実性情報を抽出し、知識伝達プロセス全体を導く。
これら2つの戦略を組み合わせることで、元のトレーニングデータなしで事前訓練されたモデルからより信頼性の高い情報を抽出する。
複数の公開事前学習モデルとマルチオーガニックデータセットMOBAの実験により,本フレームワークの有効性を実証した。
関連論文リスト
- Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Semi-supervised Instance Segmentation with a Learned Shape Prior [8.375479817579526]
そこで本稿では,対象オブジェクトを事前形状に基づいて検索するフレームワークを提案する。
形状事前モデルは、非常に限られた訓練データしか必要としない変分オートエンコーダで学習される。
論文 参考訳(メタデータ) (2023-09-09T22:55:25Z) - Tailored Multi-Organ Segmentation with Model Adaptation and Ensemble [22.82094545786408]
マルチ組織セグメンテーションは、医用画像解析の基本的な課題である。
高価な労働コストと専門知識のため、多臓器アノテーションの入手は通常制限される。
本稿では,モデル適応段とモデルアンサンブル段からなる新しい2段法を提案する。
論文 参考訳(メタデータ) (2023-04-14T13:39:39Z) - Architecture, Dataset and Model-Scale Agnostic Data-free Meta-Learning [119.70303730341938]
データフリーメタトレーニングにおけるePisode cUrriculum inversion(ECI)と、内部ループ後のinvErsion calibRation(ICFIL)を提案する。
ECIは、メタモデルのリアルタイムフィードバックに応じて、擬似エピソードの難易度を適応的に増加させる。
本稿では,ECIを用いたメタトレーニングの最適化過程を,エンド・ツー・エンド方式で近似形式として定式化する。
論文 参考訳(メタデータ) (2023-03-20T15:10:41Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Towards All-in-one Pre-training via Maximizing Multi-modal Mutual
Information [77.80071279597665]
マルチモーダル相互情報事前学習(M3I事前学習)を最大化するオールインワン単段階事前学習手法を提案する。
提案手法は,ImageNet分類,オブジェクト検出,LVIS長鎖オブジェクト検出,ADE20kセマンティックセマンティックセマンティックセマンティクスなど,様々なビジョンベンチマークにおける事前学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-17T18:59:49Z) - Incremental Learning Meets Transfer Learning: Application to Multi-site
Prostate MRI Segmentation [16.50535949349874]
インクリメンタルトランスファー学習(ITL)と呼ばれる新しいマルチサイトセグメンテーションフレームワークを提案する。
ITLは、エンドツーエンドのシーケンシャルな方法で、マルチサイトデータセットからモデルを学習する。
ITLトレーニングスキームを活用することで、漸進的な学習における破滅的な問題を軽減できることを示す。
論文 参考訳(メタデータ) (2022-06-03T02:32:01Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。