論文の概要: Improving mitosis detection on histopathology images using large
vision-language models
- arxiv url: http://arxiv.org/abs/2310.07176v1
- Date: Wed, 11 Oct 2023 04:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 00:47:00.390476
- Title: Improving mitosis detection on histopathology images using large
vision-language models
- Title(参考訳): 大型視覚言語モデルを用いた病理像のミトーシス検出の改善
- Authors: Ruiwen Ding, James Hall, Neil Tenenholtz, Kristen Severson
- Abstract要約: 特定の種類の癌組織では、有糸分裂数は腫瘍の増殖、予後不良、治療抵抗と関係があることが示されている。
病理学者によるミオトーシス計数の高度変動により、ヘマトキシリンとエオシン(H&E)による全スライド画像のミオトーシス検出の主観性を低減するために畳み込みニューラルネットワーク(CNN)が用いられている。
本研究では,視覚的特徴と自然言語の両方を活用する大規模視覚言語モデルにより,ミトーシス検出精度が向上することが実証された。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In certain types of cancerous tissue, mitotic count has been shown to be
associated with tumor proliferation, poor prognosis, and therapeutic
resistance. Due to the high inter-rater variability of mitotic counting by
pathologists, convolutional neural networks (CNNs) have been employed to reduce
the subjectivity of mitosis detection in hematoxylin and eosin (H&E)-stained
whole slide images. However, most existing models have performance that lags
behind expert panel review and only incorporate visual information. In this
work, we demonstrate that pre-trained large-scale vision-language models that
leverage both visual features and natural language improve mitosis detection
accuracy. We formulate the mitosis detection task as an image captioning task
and a visual question answering (VQA) task by including metadata such as tumor
and scanner types as context. The effectiveness of our pipeline is demonstrated
via comparison with various baseline models using 9,501 mitotic figures and
11,051 hard negatives (non-mitotic figures that are difficult to characterize)
from the publicly available Mitosis Domain Generalization Challenge (MIDOG22)
dataset.
- Abstract(参考訳): 特定の種類の癌組織では、有糸分裂数は腫瘍の増殖、予後不良、治療抵抗と関係があることが示されている。
病理学者によるミオトーシス計数の高度変動により、ヘマトキシリンとエオシン(H&E)による全スライド画像のミオトーシス検出の主観性を低減するために畳み込みニューラルネットワーク(CNN)が用いられている。
しかし、既存のモデルの多くは、専門家パネルのレビューに遅れ、ビジュアル情報のみを取り込むパフォーマンスを持っている。
そこで本研究では,視覚特徴と自然言語を併用した大規模視覚言語モデルが有糸分裂検出精度を向上させることを実証する。
画像キャプションタスクおよび視覚質問応答(VQA)タスクとして、腫瘍やスキャナータイプなどのメタデータをコンテキストとして含むことで、ミトーシス検出タスクを定式化する。
筆者らのパイプラインの有効性は,Mitosis Domain Generalization Challenge (MIDOG22)データセットから,9,501 mitotic figureと11,051 hard negatives(非mitotic figureは特徴付けるのが難しい)を用いた各種ベースラインモデルとの比較により実証された。
関連論文リスト
- Unleashing the Potential of Synthetic Images: A Study on Histopathology Image Classification [0.12499537119440242]
病理組織像分類は様々な疾患の正確な同定と診断に重要である。
合成画像は、既存のデータセットを効果的に増強し、最終的に下流の病理組織像分類タスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-09-24T12:02:55Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Could We Generate Cytology Images from Histopathology Images? An Empirical Study [1.791005104399795]
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
本研究では,CycleGANやNeural Style Transferといった従来の画像間転送モデルについて検討した。
論文 参考訳(メタデータ) (2024-03-16T10:43:12Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Semantic Map Guided Synthesis of Wireless Capsule Endoscopy Images using
Diffusion Models [4.187344935012482]
ワイヤレスカプセル内視鏡(Wireless capsule endoscopy, WCE)は、消化管(GI)を可視化するための非侵襲的方法である。
本稿では,様々なWCE画像を生成するために生成モデル,特に拡散モデル(DM)を活用する新しいアプローチを提案する。
我々のモデルは、可視化スケール(VS)エンジンによるセマンティックマップを導入し、生成した画像の可制御性と多様性を向上させる。
論文 参考訳(メタデータ) (2023-11-10T06:16:44Z) - Improving Deep Facial Phenotyping for Ultra-rare Disorder Verification
Using Model Ensembles [52.77024349608834]
我々は、DCNNを最先端の顔認識手法であるiResNetとArcFaceに置き換える影響を分析する。
提案するアンサンブルモデルにより,目視と目視の両障害に対する最先端のパフォーマンスが達成される。
論文 参考訳(メタデータ) (2022-11-12T23:28:54Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Deep Learning models for benign and malign Ocular Tumor Growth
Estimation [3.1558405181807574]
臨床医はしばしば、医用画像データに適した画像処理アルゴリズムを選択する際に問題に直面している。
ここでは、適切なモデルを選択するための戦略を示す。
論文 参考訳(メタデータ) (2021-07-09T05:40:25Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。