論文の概要: Magnification-Aware Distillation (MAD): A Self-Supervised Framework for Unified Representation Learning in Gigapixel Whole-Slide Images
- arxiv url: http://arxiv.org/abs/2512.14796v1
- Date: Tue, 16 Dec 2025 15:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.741252
- Title: Magnification-Aware Distillation (MAD): A Self-Supervised Framework for Unified Representation Learning in Gigapixel Whole-Slide Images
- Title(参考訳): 拡大対応蒸留(MAD):ギガピクセル全スライド画像における統一表現学習のための自己監督型フレームワーク
- Authors: Mahmut S. Gokmen, Mitchell A. Klusty, Peter T. Nelson, Allison M. Neltner, Sen-Ching Samson Cheung, Thomas M. Pearce, David A Gutman, Brittany N. Dugger, Devavrat S. Bisht, Margaret E. Flanagan, V. K. Cody Bumgardner,
- Abstract要約: 全スライディング画像(WSI)には、複数の倍率レベルに分布する組織情報が含まれている。
ほとんどの自己監督型モデルはこれらのスケールを独立した視点として扱う。
本研究は,低磁化コンテキストと空間的に整合した高磁化の詳細をリンクする自己教師型戦略であるMagni-Aware Distillation(MAD)を紹介する。
- 参考スコア(独自算出の注目度): 0.8425266163142465
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whole-slide images (WSIs) contain tissue information distributed across multiple magnification levels, yet most self-supervised methods treat these scales as independent views. This separation prevents models from learning representations that remain stable when resolution changes, a key requirement for practical neuropathology workflows. This study introduces Magnification-Aware Distillation (MAD), a self-supervised strategy that links low-magnification context with spatially aligned high-magnification detail, enabling the model to learn how coarse tissue structure relates to fine cellular patterns. The resulting foundation model, MAD-NP, is trained entirely through this cross-scale correspondence without annotations. A linear classifier trained only on 10x embeddings maintains 96.7% of its performance when applied to unseen 40x tiles, demonstrating strong resolution-invariant representation learning. Segmentation outputs remain consistent across magnifications, preserving anatomical boundaries and minimizing noise. These results highlight the feasibility of scalable, magnification-robust WSI analysis using a unified embedding space
- Abstract(参考訳): 全体スライド画像(WSI)には、複数の倍率レベルに分布する組織情報が含まれているが、ほとんどの自己監督的手法は、これらのスケールを独立したビューとして扱う。
この分離により、実用的な神経病理学ワークフローの重要な要件である解像度が変化しても安定なモデルを学習できない。
本研究は,低磁化コンテキストと空間的に整合した高磁化の詳細を関連付ける自己教師型戦略であるMagnification-Aware Distillation(MAD)を導入し,組織構造が微細な細胞パターンとどのように関連しているかをモデルで学習する。
結果として得られる基礎モデルであるMAD-NPは、アノテーションなしでこの大規模対応によって完全に訓練される。
10x埋め込みでのみ訓練された線形分類器は、目に見えない40xタイルに適用した場合、96.7%の性能を維持し、強い解像度不変表現学習を示す。
分割出力は拡大にわたって一貫しており、解剖学的境界を保ち、ノイズを最小限に抑えている。
これらの結果は, 統合埋め込み空間を用いた拡張性, 拡張性, 破壊性 WSI 解析の実現可能性を強調している。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - UHKD: A Unified Framework for Heterogeneous Knowledge Distillation via Frequency-Domain Representations [5.382357091398666]
クロスアーキテクチャ転送に周波数領域の中間的特徴を利用するフレームワークとして、統一不均一知識蒸留(UHKD)が提案されている。
CIFAR-100とImageNet-1Kの実験では、最新の手法よりも5.59%、0.83%向上した。
論文 参考訳(メタデータ) (2025-10-28T06:41:43Z) - DiSSECT: Structuring Transfer-Ready Medical Image Representations through Discrete Self-Supervision [9.254163621425727]
DiSSECTはSSLパイプラインにマルチスケールベクトル量子化を統合するフレームワークで、離散的な表現ボトルネックを課す。
分類タスクとセグメンテーションタスクの両方で強力なパフォーマンスを実現し、微調整は最小か不要である。
複数の公開医用画像データセットにまたがってDiSSECTを検証し、その堅牢性と一般化性を示す。
論文 参考訳(メタデータ) (2025-09-23T07:58:21Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Attention-guided Feature Distillation for Semantic Segmentation [8.344263189293578]
本稿では,改良された特徴写像を用いて注目を伝達するための簡易かつ強力な手法の有効性を示す。
CBAM(Convolutional Block Attention Module)を用いたAttnFD(AttnFD)法の提案
これはPascalVoc 2012、Cityscapes、COCO、CamVidデータセット上の学生ネットワークの平均的相互接続(mIoU)を改善するという観点から、最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-03-08T16:57:47Z) - Multiscale Structure Guided Diffusion for Image Deblurring [24.09642909404091]
拡散確率モデル (DPM) は画像の劣化に用いられている。
暗黙のバイアスとして、単純だが効果的なマルチスケール構造ガイダンスを導入する。
目に見えないデータのアーティファクトが少ないほど、より堅牢なデブロアリング結果を示します。
論文 参考訳(メタデータ) (2022-12-04T10:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。