論文の概要: A Classifier-Free Incremental Learning Framework for Scalable Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2405.16328v1
- Date: Sat, 25 May 2024 19:05:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 21:57:23.848632
- Title: A Classifier-Free Incremental Learning Framework for Scalable Medical Image Segmentation
- Title(参考訳): スケーラブルな医用画像分割のための分類自由増分学習フレームワーク
- Authors: Xiaoyang Chen, Hao Zheng, Yifang Xie, Yuncong Ma, Tengfei Li,
- Abstract要約: 本稿では,単一分類器のないネットワークにおいて,可変数のクラスをセグメント化できる新しいセグメンテーションパラダイムを提案する。
このネットワークは、コントラスト学習を用いて訓練され、簡単な解釈を容易にする識別的特徴表現を生成する。
統合ネットワーク内での様々なクラス数処理における本手法の柔軟性とその漸進学習能力について述べる。
- 参考スコア(独自算出の注目度): 6.591403935303867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Current methods for developing foundation models in medical image segmentation rely on two primary assumptions: a fixed set of classes and the immediate availability of a substantial and diverse training dataset. However, this can be impractical due to the evolving nature of imaging technology and patient demographics, as well as labor-intensive data curation, limiting their practical applicability and scalability. To address these challenges, we introduce a novel segmentation paradigm enabling the segmentation of a variable number of classes within a single classifier-free network, featuring an architecture independent of class number. This network is trained using contrastive learning and produces discriminative feature representations that facilitate straightforward interpretation. Additionally, we integrate this strategy into a knowledge distillation-based incremental learning framework, facilitating the gradual assimilation of new information from non-stationary data streams while avoiding catastrophic forgetting. Our approach provides a unified solution for tackling both class- and domain-incremental learning scenarios. We demonstrate the flexibility of our method in handling varying class numbers within a unified network and its capacity for incremental learning. Experimental results on an incompletely annotated, multi-modal, multi-source dataset for medical image segmentation underscore its superiority over state-of-the-art alternative approaches.
- Abstract(参考訳): 医用画像セグメンテーションの基礎モデルを開発するための現在の手法は、固定されたクラスのセットと、実質的で多様なトレーニングデータセットの即時利用という2つの前提に依存している。
しかし、画像技術や患者の人口統計学の進化と労働集約的なデータキュレーションにより、実用性やスケーラビリティが制限されるため、これは現実的ではない可能性がある。
これらの課題に対処するために、クラス番号に依存しないアーキテクチャを特徴とする、単一分類器のないネットワークにおいて、可変数のクラスをセグメント化できる新しいセグメンテーションパラダイムを導入する。
このネットワークは、コントラスト学習を用いて訓練され、簡単な解釈を容易にする識別的特徴表現を生成する。
さらに,この戦略を知識蒸留に基づく漸進的学習フレームワークに統合し,非定常データストリームからの新たな情報の段階的同化を容易にするとともに,破滅的な忘れ込みを回避する。
このアプローチは、クラスとドメインインクリメンタルな学習シナリオの両方を扱うための統一的なソリューションを提供します。
統合ネットワーク内での様々なクラス数処理における本手法の柔軟性とその漸進学習能力について述べる。
医用画像セグメンテーションのための不完全な注釈付きマルチモーダル・マルチソースデータセットの実験結果は、最先端の代替手法よりも優位性を示している。
関連論文リスト
- Exploiting Minority Pseudo-Labels for Semi-Supervised Semantic Segmentation in Autonomous Driving [2.638145329894673]
マイノリティ・クラス・ラーニングを強化するためのプロフェッショナル・トレーニング・モジュールと、より包括的なセマンティック情報を学ぶための一般的なトレーニング・モジュールを提案する。
実験では,ベンチマークデータセットの最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-19T11:47:25Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Explainable Semantic Medical Image Segmentation with Style [7.074258860680265]
ラベル付きデータのみを限定して一般化可能なセグメンテーションを実現するための,完全教師付き生成フレームワークを提案する。
提案手法は,エンド・ツー・エンドの対角訓練を取り入れたセグメンテーション・タスク駆動型識別器と組み合わせた医用画像スタイルを作成する。
完全セマンティックで公開可能なペルビウスデータセットの実験では、我々の手法は他の最先端の手法よりも、シフトに対してより一般化可能であることが示された。
論文 参考訳(メタデータ) (2023-03-10T04:34:51Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - SATS: Self-Attention Transfer for Continual Semantic Segmentation [50.51525791240729]
連続的なセマンティックセグメンテーションは、連続的な分類学習と同じ破滅的な忘れの問題に悩まされる。
本研究では,各画像内の要素間の関係について,知識に関連する新しいタイプの情報伝達を提案する。
関係情報は、トランスフォーマースタイルのセグメンテーションモデルにおける自己アテンションマップから有効に得ることができる。
論文 参考訳(メタデータ) (2022-03-15T06:09:28Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Continual Active Learning Using Pseudo-Domains for Limited Labelling
Resources and Changing Acquisition Characteristics [2.6105699925188257]
臨床ルーチン中の医療画像における機械学習は、スキャナープロトコル、ハードウェア、ポリシーの変更によって損なわれる。
マルチスキャナ環境下で,医療画像のストリーム上で動作する連続的な能動学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T13:11:49Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Semi-supervised few-shot learning for medical image segmentation [21.349705243254423]
大規模な注釈付きデータセットの必要性を緩和する最近の試みは、数ショットの学習パラダイムの下でトレーニング戦略を開発した。
セマンティックセグメンテーションのための新しい数発の学習フレームワークを提案し,各エピソードでラベルのない画像も利用できるようにした。
エピソードトレーニングにおけるラベルなしのサロゲートタスクを含めると、より強力な特徴表現がもたらされることを示す。
論文 参考訳(メタデータ) (2020-03-18T20:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。