論文の概要: Benchmarking foundation models as feature extractors for weakly-supervised computational pathology
- arxiv url: http://arxiv.org/abs/2408.15823v1
- Date: Wed, 28 Aug 2024 14:34:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 15:40:56.161040
- Title: Benchmarking foundation models as feature extractors for weakly-supervised computational pathology
- Title(参考訳): 弱教師付き計算病理のための特徴抽出器としての基礎モデルのベンチマーク
- Authors: Peter Neidlinger, Omar S. M. El Nahhas, Hannah Sophie Muti, Tim Lenz, Michael Hoffmeister, Hermann Brenner, Marko van Treeck, Rupert Langer, Bastian Dislich, Hans Michael Behrens, Christoph Röcken, Sebastian Foersch, Daniel Truhn, Antonio Marra, Oliver Lester Saldanha, Jakob Nikolas Kather,
- Abstract要約: 肺・大腸癌・胃癌・乳癌の13例を対象に, 病理組織学的基盤モデルを10例, 6,791例, 9,493例に比較検討した。
視覚言語基礎モデルであるCONCHは,視覚のみの基礎モデルと比較して,タスクの42%で最高の性能を示した。
- 参考スコア(独自算出の注目度): 0.6151041580858937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in artificial intelligence have driven the development of numerous pathology foundation models capable of extracting clinically relevant information. However, there is currently limited literature independently evaluating these foundation models on truly external cohorts and clinically-relevant tasks to uncover adjustments for future improvements. In this study, we benchmarked ten histopathology foundation models on 13 patient cohorts with 6,791 patients and 9,493 slides from lung, colorectal, gastric, and breast cancers. The models were evaluated on weakly-supervised tasks related to biomarkers, morphological properties, and prognostic outcomes. We show that a vision-language foundation model, CONCH, yielded the highest performance in 42% of tasks when compared to vision-only foundation models. The experiments reveal that foundation models trained on distinct cohorts learn complementary features to predict the same label, and can be fused to outperform the current state of the art. Creating an ensemble of complementary foundation models outperformed CONCH in 66% of tasks. Moreover, our findings suggest that data diversity outweighs data volume for foundation models. Our work highlights actionable adjustments to improve pathology foundation models.
- Abstract(参考訳): 人工知能の進歩は、臨床関連情報を抽出できる多くの病理基盤モデルの開発を推進してきた。
しかし、現在、これらの基礎モデルを真の外部コホートと臨床関連課題に基づいて独立して評価する文献が限られており、今後の改善に向けた調整が明らかにされている。
本研究は, 肺, 大腸癌, 胃癌, 乳癌の13例の病理組織学的基盤モデルを用いて, 肺, 大腸癌, 胃癌, 乳癌の6,791例, 9,493例について比較検討した。
これらのモデルは, バイオマーカー, 形態学的特性, 予後に関する弱い教師付きタスクに基づいて評価した。
視覚言語基礎モデルであるCONCHは,視覚のみの基礎モデルと比較して,タスクの42%で最高の性能を示した。
実験の結果、異なるコホートで訓練された基礎モデルは、同じラベルを予測するために相補的な特徴を学習し、現在の最先端よりも優れていることが判明した。
補完的なファンデーションモデルのアンサンブルを作成することは、タスクの66%でCONCHを上回った。
さらに, 基礎モデルでは, データの多様性がデータ量を上回ることが示唆された。
我々の研究は、病理基盤モデルを改善するための実行可能な調整に焦点を当てている。
関連論文リスト
- A Clinical Benchmark of Public Self-Supervised Pathology Foundation Models [2.124312824026935]
本研究は, がん診断を含む臨床関連エンドポイントと, 2つの医療センターからの標準病院手術中に発生する各種バイオマーカーとを関連づけた臨床スライドを含む病理データセットの収集について述べる。
これらのデータセットを利用して、公共病理基盤モデルの性能を体系的に評価し、新しい基礎モデルをトレーニングし、適切な事前学習モデルを選択するためのベストプラクティスに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-07-09T02:33:13Z) - Histopathology Foundation Models Enable Accurate Ovarian Cancer Subtype Classification [1.9499122087408571]
病理組織学的基盤モデルに基づく最も厳格なシングルタスク検証を報告する。
病理学の基礎モデルは、サブタイプに対する客観性の度合いを提供し、分類性能を向上させる。
このようなモデルは、挑戦的なケースで意見を提供し、病理診断の精度と効率を向上させる可能性がある。
論文 参考訳(メタデータ) (2024-05-16T11:21:02Z) - Beyond the Black Box: Do More Complex Models Provide Superior XAI Explanations? [0.0]
人工知能モデルの複雑さの増大は、解釈可能性に課題をもたらす。
本研究では,ディープラーニングモデルの複雑さと説明可能なAI(XAI)の有効性について検討する。
論文 参考訳(メタデータ) (2024-05-14T14:35:35Z) - RudolfV: A Foundation Model by Pathologists for Pathologists [13.17203220753175]
計算病理学の基礎モデルを設計するための新しいアプローチを提案する。
我々のモデル "RudolfV" は、様々なベンチマークで既存の最先端基盤モデルを上回っています。
論文 参考訳(メタデータ) (2024-01-08T18:31:38Z) - GEO-Bench: Toward Foundation Models for Earth Monitoring [139.77907168809085]
6つの分類と6つのセグメンテーションタスクからなるベンチマークを提案する。
このベンチマークは、さまざまな地球観測タスクの進行の原動力となる。
論文 参考訳(メタデータ) (2023-06-06T16:16:05Z) - The Shaky Foundations of Clinical Foundation Models: A Survey of Large
Language Models and Foundation Models for EMRs [5.7482228499062975]
非イメージングEMRデータに基づいて訓練された80以上の基礎モデルをレビューする。
ほとんどのモデルが、小さく、狭められた臨床データセットでトレーニングされていることが分かりました。
臨床基礎モデルの利点を評価するための評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-22T23:54:14Z) - Causal Inference via Nonlinear Variable Decorrelation for Healthcare
Applications [60.26261850082012]
線形および非線形共振の両方を扱う可変デコリレーション正規化器を用いた新しい手法を提案する。
我々は、モデル解釈可能性を高めるために、元の特徴に基づくアソシエーションルールマイニングを用いた新しい表現として、アソシエーションルールを採用する。
論文 参考訳(メタデータ) (2022-09-29T17:44:14Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - CHEER: Rich Model Helps Poor Model via Knowledge Infusion [69.23072792708263]
我々は、そのようなリッチなモデルを伝達可能な表現に簡潔に要約できる知識注入フレームワークCHEERを開発した。
実験の結果、CHEERは複数の生理的データセットのマクロF1スコアにおいて、ベースラインを5.60%から46.80%上回った。
論文 参考訳(メタデータ) (2020-05-21T21:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。