論文の概要: Footprint-Guided Exemplar-Free Continual Histopathology Report Generation
- arxiv url: http://arxiv.org/abs/2602.23817v1
- Date: Fri, 27 Feb 2026 08:58:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.339372
- Title: Footprint-Guided Exemplar-Free Continual Histopathology Report Generation
- Title(参考訳): フットプリントガイドを用いた初期遊離型連続組織学レポートの作成
- Authors: Pratibha Kumari, Daniel Reisenbüchler, Afshin Bozorgpour, yousef Sadegheih, Priyankar Choudhary, Dorit Merhof,
- Abstract要約: 本稿では,WSI-to-Report生成のための非定型連続学習フレームワークを提案する。
中心となるアイデアは、凍結したパッチ埋め込み空間に構築されたコンパクトなドメインフットプリントである。
我々のアプローチは、前例のないリハーサルベースラインと限定的なリハーサルベースラインを上回ります。
- 参考スコア(独自算出の注目度): 3.361593315894868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rapid progress in vision-language modeling has enabled pathology report generation from gigapixel whole-slide images, but most approaches assume static training with simultaneous access to all data. In clinical deployment, however, new organs, institutions, and reporting conventions emerge over time, and sequential fine-tuning can cause catastrophic forgetting. We introduce an exemplar-free continual learning framework for WSI-to-report generation that avoids storing raw slides or patch exemplars. The core idea is a compact domain footprint built in a frozen patch-embedding space: a small codebook of representative morphology tokens together with slide-level co-occurrence summaries and lightweight patch-count priors. These footprints support generative replay by synthesizing pseudo-WSI representations that reflect domain-specific morphological mixtures, while a teacher snapshot provides pseudo-reports to supervise the updated model without retaining past data. To address shifting reporting conventions, we distill domain-specific linguistic characteristics into a compact style descriptor and use it to steer generation. At inference, the model identifies the most compatible descriptor directly from the slide signal, enabling domain-agnostic setup without requiring explicit domain identifiers. Evaluated across multiple public continual learning benchmarks, our approach outperforms exemplar-free and limited-buffer rehearsal baselines, highlighting footprint-based generative replay as a practical solution for deployment in evolving clinical settings.
- Abstract(参考訳): 視覚言語モデリングの急速な進歩により、ギガピクセル全スライド画像から病理レポートを生成することが可能になったが、ほとんどのアプローチでは、全てのデータに同時アクセスする静的トレーニングを前提としている。
しかし、臨床展開では、新しい臓器、機関、報告規則が時間とともに出現し、連続的な微調整は破滅的な忘れ物を引き起こす可能性がある。
本稿では,WSI-to-Report生成のための非定型連続学習フレームワークを提案する。
コアとなるアイデアは、凍結したパッチ埋め込みスペースに構築されたコンパクトなドメインフットプリントである。
これらのフットプリントは、ドメイン固有の形態的混合を反映した擬似WSI表現を合成することで生成的リプレイをサポートし、教師スナップショットは、過去のデータを保持することなく更新モデルを監視するための擬似レポートを提供する。
シフトするレポーティング規則に対処するため,我々はドメイン固有の言語特性をコンパクトなスタイル記述子に蒸留し,それをステアジェネレーションに利用する。
推論では、モデルはスライド信号から直接最も互換性のある記述子を識別し、明示的なドメイン識別子を必要とせずにドメインに依存しない設定を可能にする。
複数の公立連続学習ベンチマークで評価され、我々のアプローチは、先例のないリハーサルベースラインと限定的なリハーサルベースラインを上回り、フットプリントベースの生成リプレイを、臨床環境の進化における実践的なソリューションとして強調した。
関連論文リスト
- SwiftRepertoire: Few-Shot Immune-Signature Synthesis via Dynamic Kernel Codes [19.000998531934865]
本稿では,軽量タスク記述子に条件付きプロトタイプの学習辞書から,コンパクトなタスク固有パラメータ化を合成するフレームワークを提案する。
このアーキテクチャは、モチーフ対応プローブとモチーフ発見パイプラインを通じて、解釈可能性を保存する。
論文 参考訳(メタデータ) (2026-02-01T06:30:31Z) - DynaPURLS: Dynamic Refinement of Part-aware Representations for Skeleton-based Zero-Shot Action Recognition [51.80782323686666]
textbfDynaPURLSは、堅牢でマルチスケールなビジュアル・セマンティック対応を確立する統一的なフレームワークである。
我々のフレームワークは、グローバルな動きと局所的な身体部分のダイナミクスの両方を含む階層的なテキスト記述を生成するために、大きな言語モデルを活用する。
NTU RGB+D 60/120とPKU-MMDを含む3つの大規模ベンチマークデータセットの実験は、DynaPURLSが先行技術よりも大幅に優れていることを示した。
論文 参考訳(メタデータ) (2025-12-12T10:39:10Z) - A Prototype-Guided Coarse Annotations Refining Approach for Whole Slide Images [4.562061988943637]
スライド画像全体における微粒なアノテーションは、様々な病理領域の境界を示す。
粗いアノテーションを精錬する既存の方法は、広範囲のトレーニングサンプルやクリーンなデータセットに頼っていることが多い。
本稿ではプロトタイプ誘導方式を提案する。
論文 参考訳(メタデータ) (2025-03-25T07:34:06Z) - Part-aware Unified Representation of Language and Skeleton for Zero-shot Action Recognition [57.97930719585095]
本稿では,PURLS(Part-aware Unified Representation between Language and Skeleton)を紹介する。
本手法はスケルトン/言語のバックボーンと3つの大規模データセットを用いて評価する。
その結果、PURLSの普遍性と優れた性能を示し、以前のスケルトンベースのソリューションと他のドメインからの標準ベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-19T08:22:32Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Memory-Efficient Prompt Tuning for Incremental Histopathology
Classification [69.46798702300042]
本稿では,経済的なメモリコストのモデル一般化ポテンシャルを育成するための,メモリ効率の良いプロンプトチューニングフレームワークを提案する。
乳癌転移分類と上皮間質組織分類の2つの病理組織学的タスクにより,我々の枠組みを広く評価した。
論文 参考訳(メタデータ) (2024-01-22T03:24:45Z) - PRIOR: Prototype Representation Joint Learning from Medical Images and
Reports [19.336988866061294]
医用画像とレポートのグローバルなアライメントとローカルなアライメントを組み合わせた表現学習フレームワークを提案する。
標準的なグローバルな多モードアライメント手法とは対照的に、細粒度表現に局所アライメントモジュールを用いる。
低レベルのローカライズされた視覚的および高レベルの臨床言語的特徴に焦点を合わせることができる文量プロトタイプメモリバンクを構築する。
論文 参考訳(メタデータ) (2023-07-24T07:49:01Z) - Unsupervised Continual Semantic Adaptation through Neural Rendering [32.099350613956716]
セマンティックセグメンテーションの課題に対する連続的マルチシーン適応について検討する。
本稿では,セグメンテーションモデルの予測を融合させることで,シーン毎にセマンティック・NeRFネットワークを訓練する。
我々は,Voxelベースのベースラインと最先端の教師なしドメイン適応手法の両方より優れているScanNetに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-11-25T09:31:41Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Transferring and Regularizing Prediction for Semantic Segmentation [115.88957139226966]
本稿では,セマンティックセグメンテーションの本質的特性を利用して,モデル伝達におけるそのような問題を緩和する。
本稿では,モデル転送を教師なし方式で正規化するための制約として固有特性を課す予測伝達の正規化器(RPT)を提案する。
GTA5とSynTHIA(synthetic data)で訓練されたモデルの都市景観データセット(アーバンストリートシーン)への転送に関するRTPの提案を検証するため、大規模な実験を行った。
論文 参考訳(メタデータ) (2020-06-11T16:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。