論文の概要: Do Multiple Instance Learning Models Transfer?
- arxiv url: http://arxiv.org/abs/2506.09022v2
- Date: Wed, 11 Jun 2025 11:53:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-12 16:13:48.094388
- Title: Do Multiple Instance Learning Models Transfer?
- Title(参考訳): 複数のインスタンス学習モデル転送は可能か?
- Authors: Daniel Shao, Richard J. Chen, Andrew H. Song, Joel Runevic, Ming Y. Lu, Tong Ding, Faisal Mahmood,
- Abstract要約: マルチ・インスタンス・ラーニング(MIL)は計算病理学における基礎的アプローチである
MILはしばしば、小さく、弱く管理された臨床データセットと競合する。
本研究では,事前学習型MILモデルの伝達学習能力を評価する。
- 参考スコア(独自算出の注目度): 7.766368937536295
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multiple Instance Learning (MIL) is a cornerstone approach in computational pathology (CPath) for generating clinically meaningful slide-level embeddings from gigapixel tissue images. However, MIL often struggles with small, weakly supervised clinical datasets. In contrast to fields such as NLP and conventional computer vision, where transfer learning is widely used to address data scarcity, the transferability of MIL models remains poorly understood. In this study, we systematically evaluate the transfer learning capabilities of pretrained MIL models by assessing 11 models across 21 pretraining tasks for morphological and molecular subtype prediction. Our results show that pretrained MIL models, even when trained on different organs than the target task, consistently outperform models trained from scratch. Moreover, pretraining on pancancer datasets enables strong generalization across organs and tasks, outperforming slide foundation models while using substantially less pretraining data. These findings highlight the robust adaptability of MIL models and demonstrate the benefits of leveraging transfer learning to boost performance in CPath. Lastly, we provide a resource which standardizes the implementation of MIL models and collection of pretrained model weights on popular CPath tasks, available at https://github.com/mahmoodlab/MIL-Lab
- Abstract(参考訳): MIL(Multiple Instance Learning)は、ギガピクセルの組織画像から臨床的に意味のあるスライドレベルの埋め込みを生成するための、計算病理学(CPath)の基盤となるアプローチである。
しかし、MILはしばしば、小さく、弱く制御された臨床データセットに苦しむ。
NLPや従来のコンピュータビジョンなど、データ不足に対処するために転送学習が広く使われている分野とは対照的に、MILモデルの転送性はいまだによく分かっていない。
本研究では,21の事前学習タスクにまたがる11のモデルを,形態的および分子的サブタイプ予測のために評価することにより,事前学習型MILモデルの伝達学習能力を体系的に評価する。
以上の結果から,MILの事前訓練モデルでは,目標タスクと異なる臓器でトレーニングした場合であっても,ゼロからトレーニングしたモデルよりも一貫して優れていた。
さらに、パンカンサーデータセットの事前トレーニングは、臓器やタスクをまたいだ強力な一般化を可能にし、かなり少ない事前トレーニングデータを使用しながら、スライド基盤モデルよりも優れたパフォーマンスを実現している。
これらの結果は、MILモデルの堅牢な適応性を強調し、CPathの性能向上にトランスファーラーニングを活用する利点を実証している。
最後に、MILモデルの実装を標準化するリソースを提供し、人気のあるCPathタスクで事前訓練されたモデルの重み付けのコレクションをhttps://github.com/mahmoodlab/MIL-Labで公開しています。
関連論文リスト
- Advancing Multiple Instance Learning with Continual Learning for Whole Slide Imaging [42.60974095443297]
MILモデルの注意層でCLを解析し,主にMILモデルの注意層に集中していることを確認した。
MILにおけるCL改善のための2つのコンポーネントを提案する: 意識的知識蒸留(AKD)と擬似Bagメモリプール(PMP)。
論文 参考訳(メタデータ) (2025-05-15T18:41:49Z) - SimMIL: A Universal Weakly Supervised Pre-Training Framework for Multi-Instance Learning in Whole Slide Pathology Images [12.827931905880163]
本稿では,弱教師付きスキームを用いたMIL機能抽出器を提案する。
MILの効果的な特徴を学習するために、強いデータ拡張、非線形予測ヘッド、ロバストな損失関数など、いくつかの重要なコンポーネントを探索する。
我々は、一般的な大規模WSIデータセットで実験を行い、他の事前学習方式よりも優れた性能が得られることを発見した。
論文 参考訳(メタデータ) (2025-05-10T17:23:36Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Reproducibility in Multiple Instance Learning: A Case For Algorithmic
Unit Tests [59.623267208433255]
多重インスタンス学習(MIL)は、正と負のラベルと入力の「バグ」を持つ分類問題のサブドメインである。
本研究では,最も顕著な深層MILモデルの5つについて検討し,いずれも標準MILの仮定を尊重していないことを明らかにする。
提案した"アルゴリズムユニットテスト"によってこの問題を特定し,実証する。そこでは,MILを尊重するモデルによって解決可能な,合成データセットを作成する。
論文 参考訳(メタデータ) (2023-10-27T03:05:11Z) - PDL: Regularizing Multiple Instance Learning with Progressive Dropout Layers [2.069061136213899]
多重インスタンス学習(MIL)は、バッグとして知られるインスタンスのコレクションにバイナリクラスラベルを割り当てようとする、弱い教師付き学習アプローチである。
本稿では,複雑な特徴表現の発見において,MILモデルの過度な適合と強化を図るために,プログレッシブ・ドロップアウト・レイヤ(PDL)という手法を提案する。
論文 参考訳(メタデータ) (2023-08-19T21:20:30Z) - Topologically Regularized Multiple Instance Learning to Harness Data
Scarcity [15.06687736543614]
複数のインスタンス学習モデルは、患者の顕微鏡サンプルを分類するための強力なツールとして登場した。
我々は、この課題を緩和するために、MILにトポロジカル正規化用語を導入します。
MILベンチマークは平均2.8%、合成MILデータセットは15.3%、現実世界のバイオメディカルデータセットは5.5%である。
論文 参考訳(メタデータ) (2023-07-26T08:14:18Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。