論文の概要: Histopath-C: Towards Realistic Domain Shifts for Histopathology Vision-Language Adaptation
- arxiv url: http://arxiv.org/abs/2601.12493v1
- Date: Sun, 18 Jan 2026 17:06:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.650883
- Title: Histopath-C: Towards Realistic Domain Shifts for Histopathology Vision-Language Adaptation
- Title(参考訳): Histopath-C:Realistic Domain Shifts for Histopathology Vision-Language Adaptation
- Authors: Mehrdad Noori, Gustavo Adolfo Vargas Hakim, David Osowiechi, Fereshteh Shakeri, Ali Bahri, Moslem Yazdanpanah, Sahar Dastani, Ismail Ben Ayed, Christian Desrosiers,
- Abstract要約: Histopath-Cは、デジタル病理学で観察される現実世界の分布変化を模倣するために設計された、リアルな合成汚職を伴う新しいベンチマークである。
我々のフレームワークは、任意の利用可能なデータセットに汚職を動的に適用し、オンザフライでテスト時間適応メカニズムを評価する。
提案手法は,自然画像用に設計された最先端のTTA手法より優れている。
- 参考スコア(独自算出の注目度): 34.08693225084118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Medical Vision-language models (VLMs) have shown remarkable performances in various medical imaging domains such as histo\-pathology by leveraging pre-trained, contrastive models that exploit visual and textual information. However, histopathology images may exhibit severe domain shifts, such as staining, contamination, blurring, and noise, which may severely degrade the VLM's downstream performance. In this work, we introduce Histopath-C, a new benchmark with realistic synthetic corruptions designed to mimic real-world distribution shifts observed in digital histopathology. Our framework dynamically applies corruptions to any available dataset and evaluates Test-Time Adaptation (TTA) mechanisms on the fly. We then propose LATTE, a transductive, low-rank adaptation strategy that exploits multiple text templates, mitigating the sensitivity of histopathology VLMs to diverse text inputs. Our approach outperforms state-of-the-art TTA methods originally designed for natural images across a breadth of histopathology datasets, demonstrating the effectiveness of our proposed design for robust adaptation in histopathology images. Code and data are available at https://github.com/Mehrdad-Noori/Histopath-C.
- Abstract(参考訳): 医用ビジョン言語モデル(VLM)は、視覚情報やテキスト情報を利用する訓練済みのコントラストモデルを活用することで、組織病理などの様々な医用画像領域で顕著な性能を示した。
しかし、病理組織像は、染色、汚染、ぼやけ、ノイズなどの深刻な領域シフトを示し、VLMの下流性能を著しく低下させる可能性がある。
本研究では,デジタル病理学で観測される実世界の分布変化を模倣した,リアルな合成汚職を用いた新しいベンチマークであるHistopath-Cを紹介する。
我々のフレームワークは、任意の利用可能なデータセットに汚職を動的に適用し、オンザフライでテスト時間適応(TTA)メカニズムを評価する。
次に、複数のテキストテンプレートを利用するトランスダクティブな低ランク適応戦略であるLATTEを提案し、多様なテキスト入力に対する病理組織学VLMの感度を緩和する。
本手法は,病理組織像に頑健な適応性を持たせるために提案した設計の有効性を実証し,従来のTTA法よりも優れていることを示す。
コードとデータはhttps://github.com/Mehrdad-Noori/Histopath-Cで公開されている。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - Glioma subtype classification from histopathological images using
in-domain and out-of-domain transfer learning: An experimental study [9.161480191416551]
成人型びまん性グリオーマのコンピュータ支援分類のための様々な伝達学習戦略と深層学習アーキテクチャを比較した。
半教師付き学習手法を提案し、細調整されたモデルを用いて、スライド画像全体の無注釈領域のラベルを予測する。
モデルはその後、前のステップで決定された接地構造ラベルと弱いラベルを用いて再訓練され、標準のドメイン間転送学習と比較して優れた性能を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:22:17Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - Towards a Visual-Language Foundation Model for Computational Pathology [5.72536252929528]
病理組織学(CONCH)におけるコントラスト学習について紹介する。
CONCHは、様々な組織像、生医学的テキスト、タスクに依存しない事前トレーニングのソースを用いて開発された視覚言語基盤モデルである。
13種類の多様なベンチマークで評価され, 画像分類, セグメンテーション, キャプション, テキスト・ツー・イメージ検索, 画像・テキスト検索における最先端のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-07-24T16:13:43Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Self-Supervised Vision Transformers Learn Visual Concepts in
Histopathology [5.164102666113966]
我々は、様々な弱い教師付きおよびパッチレベルのタスクに対する検証を行い、様々な自己教師付きモデルを訓練することにより、病理学における良い表現を探索する。
我々の重要な発見は、DINOベースの知識蒸留を用いたビジョントランスフォーマーが、組織像におけるデータ効率と解釈可能な特徴を学習できることを発見したことである。
論文 参考訳(メタデータ) (2022-03-01T16:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。