論文の概要: SER-Diff: Synthetic Error Replay Diffusion for Incremental Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2510.06283v1
- Date: Mon, 06 Oct 2025 21:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.09598
- Title: SER-Diff: Synthetic Error Replay Diffusion for Incremental Brain Tumor Segmentation
- Title(参考訳): SER-Diff:incrmental brain tumor Segmentationのための合成エラーリプレイ拡散
- Authors: Sashank Makanaboyina,
- Abstract要約: SER-Diff(Synthetic Error Replay Diffusion)を提案する。
SER-Diffは破滅的な忘れを緩和し、進化するデータセット間でより正確で解剖学的に一貫性のあるセグメンテーションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incremental brain tumor segmentation is critical for models that must adapt to evolving clinical datasets without retraining on all prior data. However, catastrophic forgetting, where models lose previously acquired knowledge, remains a major obstacle. Recent incremental learning frameworks with knowledge distillation partially mitigate forgetting but rely heavily on generative replay or auxiliary storage. Meanwhile, diffusion models have proven effective for refining tumor segmentations, but have not been explored in incremental learning contexts. We propose Synthetic Error Replay Diffusion (SER-Diff), the first framework that unifies diffusion-based refinement with incremental learning. SER-Diff leverages a frozen teacher diffusion model to generate synthetic error maps from past tasks, which are replayed during training on new tasks. A dual-loss formulation combining Dice loss for new data and knowledge distillation loss for replayed errors ensures both adaptability and retention. Experiments on BraTS2020, BraTS2021, and BraTS2023 demonstrate that SER-Diff consistently outperforms prior methods. It achieves the highest Dice scores of 95.8\%, 94.9\%, and 94.6\%, along with the lowest HD95 values of 4.4 mm, 4.7 mm, and 4.9 mm, respectively. These results indicate that SER-Diff not only mitigates catastrophic forgetting but also delivers more accurate and anatomically coherent segmentations across evolving datasets.
- Abstract(参考訳): 増分脳腫瘍のセグメンテーションは、すべての先行データを再トレーニングすることなく、進化する臨床データセットに適応しなければならないモデルにとって重要である。
しかし、モデルが以前取得した知識を失う破滅的な忘れ物は、依然として大きな障害である。
知識蒸留による最近の漸進的学習フレームワークは、部分的に忘れを緩和するが、生成的再生や補助記憶に大きく依存している。
一方、拡散モデルは腫瘍の分節の精製に有効であることが証明されているが、漸進的な学習の文脈では研究されていない。
SER-Diff(Synthetic Error Replay Diffusion)を提案する。
SER-Diffは凍結した教師拡散モデルを利用して過去のタスクから合成エラーマップを生成し、新しいタスクのトレーニング中に再生する。
新しいデータに対するDiceの損失と再生エラーに対する知識蒸留の損失を組み合わせた二重損失定式化により、適応性と保持性の両方が保証される。
BraTS2020、BraTS2021、BraTS2023の実験は、SER-Diffが従来手法よりも一貫して優れていることを示した。
最も高いDiceスコアは95.8\%、94.9\%、94.6\%であり、最も低いHD95値は4.4mm、4.7mm、4.9mmである。
これらの結果は、SER-Diffが破滅的な忘れを緩和するだけでなく、進化するデータセット間でより正確で解剖学的に一貫性のあるセグメンテーションを提供することを示している。
関連論文リスト
- Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - Advancing Tabular Stroke Modelling Through a Novel Hybrid Architecture and Feature-Selection Synergy [0.9999629695552196]
本研究は、ストロークを予測するように設計されたデータ駆動型、解釈可能な機械学習フレームワークを開発し、検証する。
定期的に収集された人口統計、生活習慣、臨床変数は4,981件の公的なコホートから得られた。
提案したモデルでは精度97.2%、F1スコア97.15%が達成され、先行する個人モデルと比較して大幅に向上した。
論文 参考訳(メタデータ) (2025-05-18T21:46:45Z) - Beyond Synthetic Replays: Turning Diffusion Features into Few-Shot Class-Incremental Learning Knowledge [36.22704733553466]
FSCIL(Few-shot class-incremental Learning)は、非常に限られたトレーニングデータのために困難である。
最近の研究は、これらの課題に対処するために、生成モデル、特に安定拡散(SD)を調査している。
そこで,Diffusion-FSCILを導入し,実画像の特徴を捉え,SDから4つの相乗的特徴型を抽出する。
論文 参考訳(メタデータ) (2025-03-30T11:20:08Z) - DiffPuter: Empowering Diffusion Models for Missing Data Imputation [56.48119008663155]
本稿ではDiffPuterについて紹介する。DiffPuterは、データ計算の欠如に対する期待最大化(EM)アルゴリズムと組み合わせた、カスタマイズされた拡散モデルである。
我々の理論的解析は、DiffPuterのトレーニングステップがデータ密度の最大推定値に対応することを示している。
DiffPuterは,最も競争力のある既存手法と比較して,MAEが6.94%,RMSEが4.78%向上した。
論文 参考訳(メタデータ) (2024-05-31T08:35:56Z) - Is Last Layer Re-Training Truly Sufficient for Robustness to Spurious
Correlations? [2.7985765111086254]
経験的リスク最小化(ERM)で訓練されたモデルは、刺激的な特徴、すなわち彼らの予測は望ましくない補助的な特徴に基づいている。
最近提案されたDeep Feature Reweighting (DFR) 法は、これらの最悪のグループの精度を向上させる。
本研究では,DFRの医療領域における現実的データへの適用性について検討する。
論文 参考訳(メタデータ) (2023-08-01T11:54:34Z) - Reconstructing Graph Diffusion History from a Single Snapshot [87.20550495678907]
A single SnapsHot (DASH) から拡散履歴を再構築するための新しいバリセンターの定式化を提案する。
本研究では,拡散パラメータ推定のNP硬度により,拡散パラメータの推定誤差が避けられないことを証明する。
また、DITTO(Diffusion hitting Times with Optimal proposal)という効果的な解法も開発している。
論文 参考訳(メタデータ) (2023-06-01T09:39:32Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。