論文の概要: Interpretable Vision-Language Survival Analysis with Ordinal Inductive Bias for Computational Pathology
- arxiv url: http://arxiv.org/abs/2409.09369v1
- Date: Sat, 14 Sep 2024 08:47:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:09:38.711074
- Title: Interpretable Vision-Language Survival Analysis with Ordinal Inductive Bias for Computational Pathology
- Title(参考訳): 直交誘導バイアスによる視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・視線・
- Authors: Pei Liu, Luping Ji, Jiaxiang Gou, Bo Fu, Mao Ye,
- Abstract要約: 病理組織学的全スライディング画像(WSIs)は、CPATHにおける癌予後を評価する重要なツールである
既存のサバイバル分析アプローチは、エキサイティングな進歩を遂げているが、それらは一般的に、非常に表現力の高いアーキテクチャを採用し、患者レベルが粗いラベルに限られている。
本稿では,VLSA(Vision-Language-based SA)パラダイムを提案する。
- 参考スコア(独自算出の注目度): 15.83613460419667
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Histopathology Whole-Slide Images (WSIs) provide an important tool to assess cancer prognosis in computational pathology (CPATH). While existing survival analysis (SA) approaches have made exciting progress, they are generally limited to adopting highly-expressive architectures and only coarse-grained patient-level labels to learn prognostic visual representations from gigapixel WSIs. Such learning paradigm suffers from important performance bottlenecks, when facing present scarce training data and standard multi-instance learning (MIL) framework in CPATH. To break through it, this paper, for the first time, proposes a new Vision-Language-based SA (VLSA) paradigm. Concretely, (1) VLSA is driven by pathology VL foundation models. It no longer relies on high-capability networks and shows the advantage of data efficiency. (2) In vision-end, VLSA encodes prognostic language prior and then employs it as auxiliary signals to guide the aggregating of prognostic visual features at instance level, thereby compensating for the weak supervision in MIL. Moreover, given the characteristics of SA, we propose i) ordinal survival prompt learning to transform continuous survival labels into textual prompts; and ii) ordinal incidence function as prediction target to make SA compatible with VL-based prediction. VLSA's predictions can be interpreted intuitively by our Shapley values-based method. The extensive experiments on five datasets confirm the effectiveness of our scheme. Our VLSA could pave a new way for SA in CPATH by offering weakly-supervised MIL an effective means to learn valuable prognostic clues from gigapixel WSIs. Our source code is available at https://github.com/liupei101/VLSA.
- Abstract(参考訳): 病理組織学的にWSIは,CPATHにおける癌予後を評価する重要なツールである。
既存のサバイバル分析(SA)アプローチは、エキサイティングな進歩を遂げているが、それらは一般的に、ギガピクセルWSIから予後の視覚表現を学ぶために、非常に表現力の高いアーキテクチャを採用し、患者レベルのラベルを粗くするだけに限られている。
このような学習パラダイムは、CPATHで現在少ないトレーニングデータと標準マルチインスタンス学習(MIL)フレームワークに直面している場合、重要なパフォーマンスボトルネックに悩まされる。
そこで本研究では,VLSA(Vision-Language-based SA)パラダイムを提案する。
具体的には、(1)VLSAは病理VL基盤モデルによって駆動される。
もはや高機能ネットワークに依存しておらず、データ効率の利点を示している。
2)視覚終末では,VLSAは前もって予後言語を符号化し,それを補助信号として用いて,インスタンスレベルでの予後視覚特徴の集約を誘導し,MILの弱い監督を補う。
さらに, SAの特性を考慮し, 提案する。
一 連続生存ラベルをテキスト・プロンプトに変換することの学習を経時的に行うこと。
二 標準入射関数を予測対象として、VLに基づく予測との整合性を持たせること。
VLSAの予測は、Shapley値に基づく方法によって直感的に解釈できる。
5つのデータセットに対する広範な実験により,提案手法の有効性が確認された。
我々のVLSAは、弱監督型MILをギガピクセルWSIから貴重な予後の手がかりを学習するための効果的な手段として提供することで、CPATHにおけるSAの新たな道を開くことができる。
ソースコードはhttps://github.com/liupei101/VLSA.comで公開されています。
関連論文リスト
- Vision Language Models are In-Context Value Learners [89.29486557646624]
本稿では、視覚言語モデル(VLM)に埋め込まれた世界的知識を活用してタスクの進捗を予測する普遍的価値関数推定器である生成価値学習(GVL)を提案する。
ロボットやタスク固有のトレーニングがなければ、GVLは300以上の異なる現実世界のタスクに対して、ゼロショットと数ショットの効果的な値をインコンテキストで予測することができる。
論文 参考訳(メタデータ) (2024-11-07T09:17:50Z) - MarvelOVD: Marrying Object Recognition and Vision-Language Models for Robust Open-Vocabulary Object Detection [107.15164718585666]
開語彙検出コンテキスト下でのVLMの偏り予測の根本原因について検討した。
私たちの観察は、非常に優れたトレーニングターゲットを生成する、単純で効果的なパラダイム、コード化されたMarvelOVDにつながります。
我々の手法は、他の最先端技術よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2024-07-31T09:23:57Z) - An efficient framework based on large foundation model for cervical cytopathology whole slide image screening [13.744580492120749]
本稿では,教師なし・弱教師付き学習によるWSIレベルラベルのみを用いた頚部細胞病理学WSI分類のための効率的なフレームワークを提案する。
CSDおよびFNAC 2019データセットで実施された実験は、提案手法が様々なMIL手法の性能を高め、最先端(SOTA)性能を達成することを示した。
論文 参考訳(メタデータ) (2024-07-16T08:21:54Z) - What Are We Measuring When We Evaluate Large Vision-Language Models? An Analysis of Latent Factors and Biases [87.65903426052155]
データから潜在視覚言語スキルの発見を目的とした大規模な移動学習実験を行った。
生成タスクが長さバイアスに悩まされることを示し、ベンチマークは出力長の異なるタスクのバランスをとるべきであることを示唆する。
我々は新しいデータセットOLIVEを提示し、そこでユーザーの指示をシミュレーションし、テストしたすべてのデータセットと異なる課題を提示します。
論文 参考訳(メタデータ) (2024-04-03T02:40:35Z) - AdvMIL: Adversarial Multiple Instance Learning for the Survival Analysis
on Whole-Slide Images [12.09957276418002]
本稿では,新しい逆多重インスタンス学習(AdvMIL)フレームワークを提案する。
このフレームワークは、WSI表現学習に非常に必要な多重インスタンス学習(MIL)を統合する。
実験の結果,AdvMILは比較的低コストで主要なWSIサバイバル分析手法に性能改善をもたらすだけでなく,半教師付き学習によるラベルなしデータの有効活用を可能にした。
論文 参考訳(メタデータ) (2022-12-13T12:02:05Z) - Self-Supervised PPG Representation Learning Shows High Inter-Subject
Variability [3.8036939971290007]
本稿では,信号再構成を前提とした自己教師付き学習(SSL)手法を提案し,汎用的なPSG表現を学習する。
結果として、SSLを使用するラベルデータ設定(クラス毎に10のサンプル)が非常に限定されていることが分かる。
SSLは、ラベルスカースレジームにおけるPSGデータに機械学習モデルが広く使われるための道を開くかもしれない。
論文 参考訳(メタデータ) (2022-12-07T19:02:45Z) - Improving Commonsense in Vision-Language Models via Knowledge Graph
Riddles [83.41551911845157]
本稿では,近年普及している視覚言語モデル(VL)のコモンセンス能力の解析と改善に焦点をあてる。
我々は、よりスケーラブルな戦略、すなわち、CommonsensE機能のためのkNowledgeグラフ線形化によるデータ拡張を提案する(DANCE)。
より優れたコモンセンス評価のために,検索に基づく最初のコモンセンス診断ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-11-29T18:59:59Z) - Investigating Power laws in Deep Representation Learning [4.996066540156903]
本研究では,非ラベルデータセットにおける表現の質を評価するためのフレームワークを提案する。
表現学習に影響を与える3つの重要な属性に対して、電力法則の係数$alpha$を推定する。
特に$alpha$はラベルの知識のない表現から計算可能であり、非ラベル付きデータセットにおける表現の質を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-11T18:11:32Z) - Generalized Zero-Shot Learning via VAE-Conditioned Generative Flow [83.27681781274406]
一般化されたゼロショット学習は、意味的記述から視覚的表現へ知識を移すことによって、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
近年のGZSLはデータ不足問題として定式化されており、主にGANやVAEを採用して、目に見えないクラスの視覚的特徴を生成する。
GZSLのための条件付き生成フロー,すなわちVAE-Conditioned Generative Flow (VAE-cFlow)を提案する。
論文 参考訳(メタデータ) (2020-09-01T09:12:31Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。