論文の概要: Why Foundation Models in Pathology Are Failing
- arxiv url: http://arxiv.org/abs/2510.23807v1
- Date: Mon, 27 Oct 2025 19:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.496555
- Title: Why Foundation Models in Pathology Are Failing
- Title(参考訳): 病理学の基礎モデルが失敗した理由
- Authors: Hamid R. Tizhoosh,
- Abstract要約: ファンデーションモデル(FM)はコンピュータビジョンと言語処理に革命をもたらした。
最近の評価では、診断精度の低下、ロバスト性の低下、幾何学的不安定性、重い計算要求、安全性の脆弱性など、根本的な弱点が示されている。
本稿では,主流AIにおける基本基盤モデリングの前提となる仮定と,人間の組織の本質的複雑さとの深い概念的ミスマッチから導かれることを論じる。
- 参考スコア(独自算出の注目度): 3.202978695204522
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In non-medical domains, foundation models (FMs) have revolutionized computer vision and language processing through large-scale self-supervised and multimodal learning. Consequently, their rapid adoption in computational pathology was expected to deliver comparable breakthroughs in cancer diagnosis, prognostication, and multimodal retrieval. However, recent systematic evaluations reveal fundamental weaknesses: low diagnostic accuracy, poor robustness, geometric instability, heavy computational demands, and concerning safety vulnerabilities. This short paper examines these shortcomings and argues that they stem from deeper conceptual mismatches between the assumptions underlying generic foundation modeling in mainstream AI and the intrinsic complexity of human tissue. Seven interrelated causes are identified: biological complexity, ineffective self-supervision, overgeneralization, excessive architectural complexity, lack of domain-specific innovation, insufficient data, and a fundamental design flaw related to tissue patch size. These findings suggest that current pathology foundation models remain conceptually misaligned with the nature of tissue morphology and call for a fundamental rethinking of the paradigm itself.
- Abstract(参考訳): 非医療領域では、ファンデーションモデル(FM)は大規模な自己教師付きマルチモーダル学習を通じてコンピュータビジョンと言語処理に革命をもたらした。
その結果, 癌診断, 予後診断, マルチモーダル検索に匹敵するブレークスルーをもたらすことが期待された。
しかし、最近の体系的な評価では、診断精度の低い、堅牢性の低い、幾何学的不安定性、重い計算要求、安全性の脆弱性といった根本的な弱点が示されている。
本稿では、これらの欠点を考察し、主流AIにおける基本基盤モデリングの前提となる仮定と、人間の組織の本質的な複雑さとの深い概念的ミスマッチに起因していると論じる。
生物学的な複雑さ、非効率な自己監督、過剰な一般化、過剰なアーキテクチャの複雑さ、ドメイン固有の革新の欠如、不十分なデータ、組織パッチサイズに関連する基本的な設計上の欠陥である。
これらの結果は、現在の病理基盤モデルは、組織形態学の性質と概念的に相容れないままであり、パラダイム自体の根本的な再考を求めていることを示唆している。
関連論文リスト
- Deconstructing Intraocular Pressure: A Non-invasive Multi-Stage Probabilistic Inverse Framework [0.0]
緑内障は眼圧上昇(IOP)による可逆性失明の主因である
非侵襲的に測定不能な変数をスパースなルーチンデータから推定するフレームワークを開発する。
本フレームワークは, 直接物理機器に匹敵する精度で, 最先端のトノグラフィーと良好な一致を実現している。
論文 参考訳(メタデータ) (2025-09-17T16:50:23Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Signal in the Noise: Polysemantic Interference Transfers and Predicts Cross-Model Influence [46.548276232795466]
多意味性は言語モデルに広く浸透しており、解釈とモデル行動制御の大きな課題である。
2つの小さなモデルの多意味的トポロジをマッピングし、意味的に無関係だがモデル内の干渉を示す特徴対を同定する。
我々は4つのloci(prompt, token, feature, neuron)に介入し、次のトーケン予測分布における変化を計測し、これらのモデルに体系的な脆弱性を露呈する多意味構造を明らかにする。
論文 参考訳(メタデータ) (2025-05-16T18:20:42Z) - PyTDC: A multimodal machine learning training, evaluation, and inference platform for biomedical foundation models [59.17570021208177]
PyTDCは、マルチモーダルな生物学的AIモデルのための合理化されたトレーニング、評価、推論ソフトウェアを提供する機械学習プラットフォームである。
本稿では、PyTDCのアーキテクチャの構成要素と、我々の知る限り、導入したシングルセルドラッグターゲットMLタスクにおける第一種ケーススタディについて論じる。
論文 参考訳(メタデータ) (2025-05-08T18:15:38Z) - Foundation Models in Computational Pathology: A Review of Challenges, Opportunities, and Impact [0.34826922265324145]
は、細胞と病理のスペクトルにわたって微妙な視覚下組織の手がかりをマイニングする能力を示している。
データの規模は劇的に増加し、数千から数百万のマルチギガピクセルの組織画像へと成長した。
これらのイノベーションの真の可能性と臨床実践への統合について検討する。
論文 参考訳(メタデータ) (2025-02-12T11:57:11Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Multimodal and multicontrast image fusion via deep generative models [3.431015735214097]
本稿では,モジュール型アプローチと分離可能な畳み込みブロックに根ざした生成モデルに基づく深層学習アーキテクチャを提案する。
これは、病気の進化を予測し、薬の反応を予測し、機械的な理解と臨床試験の強化を支援するのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-03-28T13:31:27Z) - Demystifying Deep Learning Models for Retinal OCT Disease Classification
using Explainable AI [0.6117371161379209]
様々な深層学習技術の採用は、非常に一般的かつ効果的であり、網膜光コヒーレンス・トモグラフィー分野に実装する上でも同様に真実である。
これらの技術はブラックボックスの特徴を持ち、医療従事者がそれらの成果を完全に信頼できないようにする。
本稿では,この研究に説明可能なAIを導入したLimeの使用とともに,比較的小型で簡易な自己開発CNNモデルを提案する。
論文 参考訳(メタデータ) (2021-11-06T13:54:07Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。