論文の概要: GAS-MIL: Group-Aggregative Selection Multi-Instance Learning for Ensemble of Foundation Models in Digital Pathology Image Analysis
- arxiv url: http://arxiv.org/abs/2510.03555v1
- Date: Fri, 03 Oct 2025 22:59:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.110406
- Title: GAS-MIL: Group-Aggregative Selection Multi-Instance Learning for Ensemble of Foundation Models in Digital Pathology Image Analysis
- Title(参考訳): GAS-MIL:デジタル病理画像解析における基礎モデルの組み立てのためのグループ集約型選択型マルチインスタンス学習
- Authors: Peiran Quan, Zifan Gu, Zhuo Zhao, Qin Zhou, Donghan M. Yang, Ruichen Rong, Yang Xie, Guanghua Xiao,
- Abstract要約: GAS-MILはフレキシブルアンサンブルフレームワークで、複数の基盤モデルの機能をシームレスに統合する。
個々のFMに対して優れた性能またはオンパー性能を達成し、MIL法を確立した。
将来のマルチモーダルおよび精度オンコロジーアプリケーションのためのスケーラブルな基盤を提供する。
- 参考スコア(独自算出の注目度): 6.45975531973783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models (FMs) have transformed computational pathology by providing powerful, general-purpose feature extractors. However, adapting and benchmarking individual FMs for specific diagnostic tasks is often time-consuming and resource-intensive, especially given their scale and diversity. To address this challenge, we introduce Group-Aggregative Selection Multi-Instance Learning (GAS-MIL), a flexible ensemble framework that seamlessly integrates features from multiple FMs, preserving their complementary strengths without requiring manual feature selection or extensive task-specific fine-tuning. Across classification tasks in three cancer datasets-prostate (PANDA), ovarian (UBC-OCEAN), and breast (TCGA-BrCa)-GAS-MIL consistently achieves superior or on-par performance relative to individual FMs and established MIL methods, demonstrating its robustness and generalizability. By enabling efficient integration of heterogeneous FMs, GAS-MIL streamlines model deployment for pathology and provides a scalable foundation for future multimodal and precision oncology applications.
- Abstract(参考訳): ファンデーションモデル(FM)は、強力な汎用的特徴抽出器を提供することで、計算病理を変容させた。
しかしながら、個々のFMを特定の診断タスクに適応し、ベンチマークすることは、特にその規模と多様性を考えると、しばしば時間とリソース集約である。
この課題に対処するために,グループ集約型選択マルチインスタンス学習(GAS-MIL, Group-Aggregative Selection Multi-Instance Learning)を紹介した。
前立腺癌データセット(PANDA)、卵巣癌(UBC-OCEAN)、乳腺癌(TCGA-BrCa)-GAS-MIL)の分類タスクは、個々のFMと比較して、常に優れた、またはオンパーパフォーマンスを達成し、MIL法を確立し、その堅牢性と一般化性を示す。
ヘテロジニアスFMの効率的な統合を可能にすることで、GAS-MILは病理学のモデル展開を効率化し、将来のマルチモーダルおよび精度オンコロジー応用のためのスケーラブルな基盤を提供する。
関連論文リスト
- MuSACo: Multimodal Subject-Specific Selection and Adaptation for Expression Recognition with Co-Training [52.99217736494484]
パーソナライズされた表現認識のためのマルチモーダルな主題固有の選択と適応法であるMuSACoを紹介する。
これにより、MuSACoは、ストレスや痛みに対する患者固有の評価など、デジタルヘルスにおける感情的コンピューティングアプリケーションに関係している。
BioVid と StressID というマルチモーダル ER データセットに対する実験結果から,MuSACo が UDA (blending) および最先端 MSDA 法より優れていることが示された。
論文 参考訳(メタデータ) (2025-08-17T23:08:21Z) - Glo-UMF: A Unified Multi-model Framework for Automated Morphometry of Glomerular Ultrastructural Characterization [15.58257979618407]
Glo-UMFは、セグメンテーション、分類、検出を統合する統合されたマルチモデルフレームワークである。
372個の電子顕微鏡画像を用いて、糸球体基底膜厚、FPE(Fight of foot process effacement)、EDD位置を定量化する。
論文 参考訳(メタデータ) (2025-08-14T05:25:30Z) - Benchmarking histopathology foundation models in a multi-center dataset for skin cancer subtyping [1.927195358774599]
大規模なドメイン内データセットの事前トレーニングは、履歴病理基盤モデル(FM)にタスクに依存しないデータ表現を学習する能力を与える。
計算病理学では、スライド全体の自動解析には、スライドのギガピクセルスケールのため、複数のインスタンス学習(MIL)フレームワークが必要である。
本研究は,MIL分類フレームワーク内のパッチレベルの特徴抽出器として,病理組織学的FMを評価するための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-06-23T14:12:16Z) - Single GPU Task Adaptation of Pathology Foundation Models for Whole Slide Image Analysis [8.076987502347327]
病理基盤モデル(PFM)は、スライド画像全体(WSI)を解析するための強力なツールとして登場した。
TAPFMは、特徴表現と注目重みの両方を最適化しながら、MILアグリゲーションに視覚変換器(ヴィット)アテンションを使用する。
膀胱癌および肺腺癌に対する突然変異予測タスクの評価。
論文 参考訳(メタデータ) (2025-06-05T15:56:45Z) - Multi-Objective-Guided Discrete Flow Matching for Controllable Biological Sequence Design [5.64033072458324]
我々は,事前学習した離散フローマッチングジェネレータを操る汎用フレームワークであるMulti-Objective-Guided Discrete Flow Matching (MOG-DFM)を提案する。
各サンプリングステップにおいて、MOG-DFMは、候補遷移のためのハイブリッドランク方向スコアを算出する。
また, 各種ペプチド生成のためのPepDFM, 機能増強剤DNA生成のためのEnhancerDFMの2つの非条件離散フローマッチングモデルを訓練した。
論文 参考訳(メタデータ) (2025-05-11T18:17:44Z) - Accelerated Multi-Contrast MRI Reconstruction via Frequency and Spatial Mutual Learning [50.74383395813782]
本稿では,周波数・空間相互学習ネットワーク(FSMNet)を提案する。
提案したFSMNetは, 加速度係数の異なるマルチコントラストMR再構成タスクに対して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-09-21T12:02:47Z) - GenBench: A Benchmarking Suite for Systematic Evaluation of Genomic Foundation Models [56.63218531256961]
我々はGenomic Foundation Modelsの有効性を評価するためのベンチマークスイートであるGenBenchを紹介する。
GenBenchはモジュラーで拡張可能なフレームワークを提供し、様々な最先端の方法論をカプセル化している。
本稿では,タスク固有性能におけるモデルアーキテクチャとデータセット特性の相互作用のニュアンス解析を行う。
論文 参考訳(メタデータ) (2024-06-01T08:01:05Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。