論文の概要: Momentum Memory for Knowledge Distillation in Computational Pathology
- arxiv url: http://arxiv.org/abs/2602.21395v1
- Date: Tue, 24 Feb 2026 21:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.619895
- Title: Momentum Memory for Knowledge Distillation in Computational Pathology
- Title(参考訳): 計算病理における知識蒸留のためのモーメント記憶
- Authors: Yongxin Guo, Hao Lu, Onur C. Koyun, Zhengjie Zhu, Muhammet Fatih Demir, Metin Nafi Gurcan,
- Abstract要約: 本稿では,モーメント記憶知識蒸留(MoMKD)を提案する。
MoMKDは最先端のMILとマルチモーダルKDベースラインを一貫して上回り、ヒストロジーのみの推論の下で強力な性能と一般化を提供する。
- 参考スコア(独自算出の注目度): 12.305907179979426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal learning that integrates genomics and histopathology has shown strong potential in cancer diagnosis, yet its clinical translation is hindered by the limited availability of paired histology-genomics data. Knowledge distillation (KD) offers a practical solution by transferring genomic supervision into histopathology models, enabling accurate inference using histology alone. However, existing KD methods rely on batch-local alignment, which introduces instability due to limited within-batch comparisons and ultimately degrades performance. To address these limitations, we propose Momentum Memory Knowledge Distillation (MoMKD), a cross-modal distillation framework driven by a momentum-updated memory. This memory aggregates genomic and histopathology information across batches, effectively enlarging the supervisory context available to each mini-batch. Furthermore, we decouple the gradients of the genomics and histology branches, preventing genomic signals from dominating histology feature learning during training and eliminating the modality-gap issue at inference time. Extensive experiments on the TCGA-BRCA benchmark (HER2, PR, and ODX classification tasks) and an independent in-house testing dataset demonstrate that MoMKD consistently outperforms state-of-the-art MIL and multimodal KD baselines, delivering strong performance and generalization under histology-only inference. Overall, MoMKD establishes a robust and generalizable knowledge distillation paradigm for computational pathology.
- Abstract(参考訳): ゲノミクスと病理組織学を統合したマルチモーダルラーニングは、癌診断において大きな可能性を示しているが、その臨床翻訳は、ペアの組織学とゲノム学のデータが限られていることによって妨げられている。
知識蒸留(KD)は、ゲノム管理を病理組織学モデルに移行し、組織学のみを用いた正確な推論を可能にする、実用的な解決策を提供する。
しかし、既存のKD法はバッチ局所アライメントに依存しており、バッチ内比較に制限があるため不安定が生じ、最終的に性能が低下する。
これらの制約に対処するため,モーメント記憶知識蒸留(MoMKD)を提案する。
このメモリは、バッチ間でゲノムと病理情報を集約し、各ミニバッチで利用可能な監督コンテキストを効果的に拡大する。
さらに、ゲノミクスと組織学の枝の勾配を2倍にし、トレーニング中のゲノム信号が組織学の特徴的学習を支配するのを防ぎ、推論時にモダリティギャップの問題を取り除く。
TCGA-BRCAベンチマーク(HER2、PR、ODX分類タスク)と独立した社内テストデータセットの大規模な実験により、MoMKDは最先端のMILとマルチモーダルKDベースラインを一貫して上回り、ヒストロジーのみの推論の下で強力なパフォーマンスと一般化を提供することを示した。
全体として、MoMKDは、計算病理学のための堅牢で一般化可能な知識蒸留パラダイムを確立している。
関連論文リスト
- DOGMA: Weaving Structural Information into Data-centric Single-cell Transcriptomics Analysis [43.565183518761984]
生データの構造的再構成と意味的拡張を目的としたデータ中心型フレームワークであるDOGMAを提案する。
複雑な多種多様なベンチマークにおいて、DOGMA SOTA性能は優れたゼロショットロバスト性とサンプル効率を示す。
論文 参考訳(メタデータ) (2026-02-02T09:10:09Z) - Alzheimer's Disease Brain Network Mining [5.586191108738563]
異種アルツハイマー病(MATCH-AD)に対する多視点適応輸送クラスタリングについて紹介する。
MATCH-ADは、深層表現学習、グラフベースのラベル伝搬、最適輸送理論を統合した半教師付きフレームワークである。
被験者の3分の1未満で、地上の真理ラベルによらず、ほぼ完璧な診断精度を達成している。
論文 参考訳(メタデータ) (2025-12-19T06:48:54Z) - Forging a Dynamic Memory: Retrieval-Guided Continual Learning for Generalist Medical Foundation Models [45.285970665585914]
本稿では,継続的学習のための包括的枠組みを提案する。
モデル微調整のためのリアルタイムガイダンスを提供するマルチモーダル多層RAGシステムを用いる。
動的知識蒸留フレームワークを導入する。
論文 参考訳(メタデータ) (2025-12-15T08:09:40Z) - Adapting HFMCA to Graph Data: Self-Supervised Learning for Generalizable fMRI Representations [57.054499278843856]
機能的磁気共鳴画像(fMRI)解析は、データセットのサイズが限られ、研究間でのドメインの変動が原因で大きな課題に直面している。
コンピュータビジョンにインスパイアされた従来の自己教師付き学習手法は、正と負のサンプルペアに依存することが多い。
本稿では,最近開発された階層関数最大相関アルゴリズム(HFMCA)をグラフ構造fMRIデータに適用することを提案する。
論文 参考訳(メタデータ) (2025-10-05T12:35:01Z) - Multi-modal Knowledge Decomposition based Online Distillation for Biomarker Prediction in Breast Cancer Histopathology [9.978792979899376]
IHCバイオマーカー予測を強化するために,MKD(Multi-modal Knowledge Decomposition)に基づくオンライン蒸留手法を提案する。
2人の教師と1人の学生が、モダリティに特有かつモダリティに特有な特徴を抽出するために開発されている。
本手法は, 単モーダルデータを用いたIHCバイオマーカー予測において, 優れた性能を実現する。
論文 参考訳(メタデータ) (2025-08-24T04:56:17Z) - Histo-Genomic Knowledge Distillation For Cancer Prognosis From Histopathology Whole Slide Images [7.5123289730388825]
ゲノムインフォームドハイパーアテンションネットワーク(G-HANet)は、トレーニング中にヒストリーゲノム知識を効果的に蒸留することができる。
ネットワークは、クロスモーダル・アソシエーション・ブランチ(CAB)とハイパーアテンション・サバイバル・ブランチ(HSB)から構成される。
論文 参考訳(メタデータ) (2024-03-15T06:20:09Z) - Distilling Privileged Multimodal Information for Expression Recognition using Optimal Transport [46.91791643660991]
マルチモーダル表現認識のための深層学習モデルは, 制御された実験室環境において顕著な性能を示した。
これらのモデルは、トレーニングに使用されるモダリティの可用性と品質のために、荒野で苦労する。
実際には、テスト時に利用できるのはトレーニング時モダリティのサブセットのみである。
特権情報による学習により、モデルはトレーニング中にのみ利用できる追加のモダリティからデータを利用することができる。
論文 参考訳(メタデータ) (2024-01-27T19:44:15Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - Differentiable Agent-based Epidemiology [71.81552021144589]
GradABM(GradABM)は、エージェントベースのモデリングのためのスケーラブルで微分可能な設計で、勾配に基づく学習と自動微分が可能である。
GradABMは、コモディティハードウェア上で数秒で数百万の人口をシミュレートし、ディープニューラルネットワークと統合し、異種データソースを取り込みます。
論文 参考訳(メタデータ) (2022-07-20T07:32:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。