論文の概要: SER-Diff: Synthetic Error Replay Diffusion for Incremental Brain Tumor Segmentation
- arxiv url: http://arxiv.org/abs/2510.06283v1
- Date: Mon, 06 Oct 2025 21:53:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.09598
- Title: SER-Diff: Synthetic Error Replay Diffusion for Incremental Brain Tumor Segmentation
- Title(参考訳): SER-Diff:incrmental brain tumor Segmentationのための合成エラーリプレイ拡散
- Authors: Sashank Makanaboyina,
- Abstract要約: SER-Diff(Synthetic Error Replay Diffusion)を提案する。
SER-Diffは破滅的な忘れを緩和し、進化するデータセット間でより正確で解剖学的に一貫性のあるセグメンテーションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incremental brain tumor segmentation is critical for models that must adapt to evolving clinical datasets without retraining on all prior data. However, catastrophic forgetting, where models lose previously acquired knowledge, remains a major obstacle. Recent incremental learning frameworks with knowledge distillation partially mitigate forgetting but rely heavily on generative replay or auxiliary storage. Meanwhile, diffusion models have proven effective for refining tumor segmentations, but have not been explored in incremental learning contexts. We propose Synthetic Error Replay Diffusion (SER-Diff), the first framework that unifies diffusion-based refinement with incremental learning. SER-Diff leverages a frozen teacher diffusion model to generate synthetic error maps from past tasks, which are replayed during training on new tasks. A dual-loss formulation combining Dice loss for new data and knowledge distillation loss for replayed errors ensures both adaptability and retention. Experiments on BraTS2020, BraTS2021, and BraTS2023 demonstrate that SER-Diff consistently outperforms prior methods. It achieves the highest Dice scores of 95.8\%, 94.9\%, and 94.6\%, along with the lowest HD95 values of 4.4 mm, 4.7 mm, and 4.9 mm, respectively. These results indicate that SER-Diff not only mitigates catastrophic forgetting but also delivers more accurate and anatomically coherent segmentations across evolving datasets.
- Abstract(参考訳): 増分脳腫瘍のセグメンテーションは、すべての先行データを再トレーニングすることなく、進化する臨床データセットに適応しなければならないモデルにとって重要である。
しかし、モデルが以前取得した知識を失う破滅的な忘れ物は、依然として大きな障害である。
知識蒸留による最近の漸進的学習フレームワークは、部分的に忘れを緩和するが、生成的再生や補助記憶に大きく依存している。
一方、拡散モデルは腫瘍の分節の精製に有効であることが証明されているが、漸進的な学習の文脈では研究されていない。
SER-Diff(Synthetic Error Replay Diffusion)を提案する。
SER-Diffは凍結した教師拡散モデルを利用して過去のタスクから合成エラーマップを生成し、新しいタスクのトレーニング中に再生する。
新しいデータに対するDiceの損失と再生エラーに対する知識蒸留の損失を組み合わせた二重損失定式化により、適応性と保持性の両方が保証される。
BraTS2020、BraTS2021、BraTS2023の実験は、SER-Diffが従来手法よりも一貫して優れていることを示した。
最も高いDiceスコアは95.8\%、94.9\%、94.6\%であり、最も低いHD95値は4.4mm、4.7mm、4.9mmである。
これらの結果は、SER-Diffが破滅的な忘れを緩和するだけでなく、進化するデータセット間でより正確で解剖学的に一貫性のあるセグメンテーションを提供することを示している。
関連論文リスト
- Restoration Score Distillation: From Corrupted Diffusion Pretraining to One-Step High-Quality Generation [82.39763984380625]
Score Distillation (DSD) の原理的一般化である textitRestoration Score Distillation (RSD) を提案する。
RSDは、ぼやけた画像、不完全画像、低解像度画像など、広範囲の汚職タイプに対応している。
自然と科学の両方のデータセットの様々な復元作業において、教師モデルを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-19T17:21:03Z) - Advancing Tabular Stroke Modelling Through a Novel Hybrid Architecture and Feature-Selection Synergy [0.9999629695552196]
本研究は、ストロークを予測するように設計されたデータ駆動型、解釈可能な機械学習フレームワークを開発し、検証する。
定期的に収集された人口統計、生活習慣、臨床変数は4,981件の公的なコホートから得られた。
提案したモデルでは精度97.2%、F1スコア97.15%が達成され、先行する個人モデルと比較して大幅に向上した。
論文 参考訳(メタデータ) (2025-05-18T21:46:45Z) - Beyond Synthetic Replays: Turning Diffusion Features into Few-Shot Class-Incremental Learning Knowledge [36.22704733553466]
FSCIL(Few-shot class-incremental Learning)は、非常に限られたトレーニングデータのために困難である。
最近の研究は、これらの課題に対処するために、生成モデル、特に安定拡散(SD)を調査している。
そこで,Diffusion-FSCILを導入し,実画像の特徴を捉え,SDから4つの相乗的特徴型を抽出する。
論文 参考訳(メタデータ) (2025-03-30T11:20:08Z) - Evolutionary Retrofitting [42.21143557577615]
AfterLearnERは、完全に訓練された機械学習モデルに進化的手法を含む、微分不可能な最適化を適用することで構成される。
AfterLearnERの効率は、奥行き検知におけるしきい値に基づく基準、音声合成における単語誤り率、3次元生成逆数ネットワーク(GAN)における画像品質といった、識別不能な信号に対処することによって実証される。
AfterLearnERの利点は、その汎用性(グラデーションは必要ない)、人間の評価、限定的なオーバーフィッティング、理論的な研究、そしてその常に振舞いなど、微分不可能なフィードバックを使用することである。
論文 参考訳(メタデータ) (2024-10-15T06:59:32Z) - Extracting Training Data from Unconditional Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(AI)の主流モデルとして採用されている。
本研究の目的は,1) 理論解析のための記憶量,2) 情報ラベルとランダムラベルを用いた条件記憶量,3) 記憶量測定のための2つのより良い評価指標を用いて,DPMにおける記憶量の理論的理解を確立することである。
提案手法は,理論解析に基づいて,SIDE (textbfSurrogate condItional Data extract) と呼ばれる新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T16:20:12Z) - DiffPuter: Empowering Diffusion Models for Missing Data Imputation [56.48119008663155]
本稿ではDiffPuterについて紹介する。DiffPuterは、データ計算の欠如に対する期待最大化(EM)アルゴリズムと組み合わせた、カスタマイズされた拡散モデルである。
我々の理論的解析は、DiffPuterのトレーニングステップがデータ密度の最大推定値に対応することを示している。
DiffPuterは,最も競争力のある既存手法と比較して,MAEが6.94%,RMSEが4.78%向上した。
論文 参考訳(メタデータ) (2024-05-31T08:35:56Z) - Is Last Layer Re-Training Truly Sufficient for Robustness to Spurious
Correlations? [2.7985765111086254]
経験的リスク最小化(ERM)で訓練されたモデルは、刺激的な特徴、すなわち彼らの予測は望ましくない補助的な特徴に基づいている。
最近提案されたDeep Feature Reweighting (DFR) 法は、これらの最悪のグループの精度を向上させる。
本研究では,DFRの医療領域における現実的データへの適用性について検討する。
論文 参考訳(メタデータ) (2023-08-01T11:54:34Z) - Reconstructing Graph Diffusion History from a Single Snapshot [87.20550495678907]
A single SnapsHot (DASH) から拡散履歴を再構築するための新しいバリセンターの定式化を提案する。
本研究では,拡散パラメータ推定のNP硬度により,拡散パラメータの推定誤差が避けられないことを証明する。
また、DITTO(Diffusion hitting Times with Optimal proposal)という効果的な解法も開発している。
論文 参考訳(メタデータ) (2023-06-01T09:39:32Z) - Structural Pruning for Diffusion Models [65.02607075556742]
Diff-Pruningは、既存のものから軽量拡散モデルの学習に適した効率的な圧縮手法である。
複数のデータセットにまたがって実施した経験的評価は,提案手法の2つの利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-18T12:38:21Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。