論文の概要: Controllable Latent Space Augmentation for Digital Pathology
- arxiv url: http://arxiv.org/abs/2508.14588v1
- Date: Wed, 20 Aug 2025 10:11:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.424072
- Title: Controllable Latent Space Augmentation for Digital Pathology
- Title(参考訳): デジタル診断のための制御可能な潜時空間拡張
- Authors: Sofiène Boutaj, Marin Scalbert, Pierre Marza, Florent Couzinie-Devy, Maria Vakalopoulou, Stergios Christodoulidis,
- Abstract要約: HistAugは、デジタル病理のための潜在空間における制御可能な拡張のための高速かつ効率的な生成モデルである。
提案手法では,複数パッチの処理を1回のフォワードパスで効率的に行うことができる。
- 参考スコア(独自算出の注目度): 2.2062051154292157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whole slide image (WSI) analysis in digital pathology presents unique challenges due to the gigapixel resolution of WSIs and the scarcity of dense supervision signals. While Multiple Instance Learning (MIL) is a natural fit for slide-level tasks, training robust models requires large and diverse datasets. Even though image augmentation techniques could be utilized to increase data variability and reduce overfitting, implementing them effectively is not a trivial task. Traditional patch-level augmentation is prohibitively expensive due to the large number of patches extracted from each WSI, and existing feature-level augmentation methods lack control over transformation semantics. We introduce HistAug, a fast and efficient generative model for controllable augmentations in the latent space for digital pathology. By conditioning on explicit patch-level transformations (e.g., hue, erosion), HistAug generates realistic augmented embeddings while preserving initial semantic information. Our method allows the processing of a large number of patches in a single forward pass efficiently, while at the same time consistently improving MIL model performance. Experiments across multiple slide-level tasks and diverse organs show that HistAug outperforms existing methods, particularly in low-data regimes. Ablation studies confirm the benefits of learned transformations over noise-based perturbations and highlight the importance of uniform WSI-wise augmentation. Code is available at https://github.com/MICS-Lab/HistAug.
- Abstract(参考訳): デジタル病理学における全スライド画像(WSI)解析は,WSIのギガピクセル分解能と高密度監視信号の不足により,ユニークな課題を呈している。
MIL(Multiple Instance Learning)はスライドレベルのタスクに自然に適合するが、堅牢なモデルのトレーニングには大規模で多様なデータセットが必要である。
画像拡張技術は、データのばらつきを高め、オーバーフィッティングを減らすために利用できるが、効果的に実装することは、簡単な作業ではない。
従来のパッチレベルの拡張は、各WSIから抽出された多数のパッチのため、違法に高価であり、既存の機能レベルの拡張方法は変換セマンティクスの制御を欠いている。
デジタル病理学の潜在領域における制御可能な拡張のための高速かつ効率的な生成モデルHistAugを紹介する。
明示的なパッチレベルの変換(例えば、hue、erosion)を条件にすることで、HistAugは初期意味情報を保存しながら、現実的な拡張埋め込みを生成する。
提案手法は,MILモデルの性能を継続的に改善しつつ,多数のパッチを単一のフォワードパスで効率的に処理することができる。
複数のスライドレベルタスクと多様なオルガンにわたる実験により、HistAugは既存のメソッド、特に低データレシエーションにおいて、より優れています。
アブレーション研究は、雑音に基づく摂動に対する学習変換の利点を確認し、一様 WSI-wise augmentation の重要性を強調する。
コードはhttps://github.com/MICS-Lab/HistAug.comで入手できる。
関連論文リスト
- Reducing Variability of Multiple Instance Learning Methods for Digital Pathology [2.9284034606635267]
デジタル病理学は、組織サンプルを全スライド画像(WSI)にデジタル化することで、この分野に革命をもたらした。
WSIは、しばしばグローバルラベルで小さなパッチに分割される。
MIL法はWSI分類に適した解法として登場した。
論文 参考訳(メタデータ) (2025-06-30T22:10:24Z) - A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Boosting Semi-Supervised 2D Human Pose Estimation by Revisiting Data Augmentation and Consistency Training [54.074020740827855]
SSHPEは、高度なデータ拡張と簡潔な一貫性のトレーニング方法という、2つのコアから強化できることがわかった。
このシンプルでコンパクトな設計は解釈可能であり、新しく発見された拡張の恩恵を受けやすい。
本研究は,従来の人体画像,魚眼画像,人手画像に対するアプローチの優位性と汎用性を広く検証する。
論文 参考訳(メタデータ) (2024-02-18T12:27:59Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Task-specific Fine-tuning via Variational Information Bottleneck for
Weakly-supervised Pathology Whole Slide Image Classification [10.243293283318415]
MIL(Multiple Instance Learning)は、デジタル・パスロジー・ホール・スライド・イメージ(WSI)分類において有望な結果を示している。
本稿では,Information Bottleneck 理論を動機とした効率的な WSI 微調整フレームワークを提案する。
我々のフレームワークは、様々なWSIヘッド上の5つの病理WSIデータセットで評価される。
論文 参考訳(メタデータ) (2023-03-15T08:41:57Z) - AugDiff: Diffusion based Feature Augmentation for Multiple Instance
Learning in Whole Slide Image [15.180437840817788]
弱教師付き学習のための強力な戦略であるマルチインスタンス学習(MIL)は、ギガピクセル全スライド画像(WSI)上で様々な予測タスクを実行することができる。
拡散モデル(DM)を初めてMILに導入し,AugDiffと呼ばれる機能拡張フレームワークを提案する。
我々は,AugDiffの性能を評価するために,3つの異なる癌データセット,2つの異なる特徴抽出器,および3つのMILアルゴリズムについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-03-11T10:36:27Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Local Magnification for Data and Feature Augmentation [53.04028225837681]
LOMA(Local Magnification)と呼ばれる,実装が容易かつモデルフリーなデータ拡張手法を提案する。
LOMAは、画像の局所領域をランダムに拡大することにより、追加のトレーニングデータを生成する。
実験の結果,提案するLOMAと標準データ拡張を組み合わせることで,画像分類や物体検出の性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-15T02:51:59Z) - Embedding Space Augmentation for Weakly Supervised Learning in
Whole-Slide Images [3.858809922365453]
多重インスタンス学習(MIL)は、WSIレベルのアノテーションからギガピクセル全体スライディングイメージ(WSI)を学習するための広く使われているフレームワークである。
EmbAugmenterは、画素空間ではなく埋め込み空間でデータ拡張を合成できるデータ拡張生成逆数ネットワーク(DA-GAN)である。
提案手法は,MILを改良することなく性能を向上し,MILトレーニングにおける従来のパッチレベルの強化と同等であり,より高速である。
論文 参考訳(メタデータ) (2022-10-31T02:06:39Z) - Coarse-to-Fine Sparse Transformer for Hyperspectral Image Reconstruction [138.04956118993934]
本稿では, サース・トゥ・ファインス・スパース・トランス (CST) を用いた新しいトランス方式を提案する。
HSI再構成のための深層学習にHSI空間を埋め込んだCST
特に,CSTは,提案したスペクトル認識スクリーニング機構(SASM)を粗いパッチ選択に使用し,選択したパッチを,細かなピクセルクラスタリングと自己相似性キャプチャのために,カスタマイズしたスペクトル集約ハッシュ型マルチヘッド自己アテンション(SAH-MSA)に入力する。
論文 参考訳(メタデータ) (2022-03-09T16:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。