論文の概要: Decoding the visual attention of pathologists to reveal their level of expertise
- arxiv url: http://arxiv.org/abs/2403.17255v1
- Date: Mon, 25 Mar 2024 23:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 17:15:36.130606
- Title: Decoding the visual attention of pathologists to reveal their level of expertise
- Title(参考訳): 病理医の視覚的注意を復号して専門知識のレベルを明らかにする
- Authors: Souradeep Chakraborty, Dana Perez, Paul Friedman, Natallia Sheuka, Constantin Friedman, Oksana Yaskiv, Rajarsi Gupta, Gregory J. Zelinsky, Joel H. Saltz, Dimitris Samaras,
- Abstract要約: 本研究は, がん検診における注意の配分方法に基づいて, 病理医の専門知識を分類する手法を提案する。
読み上げ中の病理学者の注意のみに基づいて、我々のモデルは75.3%、56.1%、77.2%の精度で彼らの専門知識のレベルを予測することができた。
- 参考スコア(独自算出の注目度): 20.552161727506235
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a method for classifying the expertise of a pathologist based on how they allocated their attention during a cancer reading. We engage this decoding task by developing a novel method for predicting the attention of pathologists as they read whole-slide Images (WSIs) of prostate and make cancer grade classifications. Our ground truth measure of a pathologists' attention is the x, y and z (magnification) movement of their viewport as they navigated through WSIs during readings, and to date we have the attention behavior of 43 pathologists reading 123 WSIs. These data revealed that specialists have higher agreement in both their attention and cancer grades compared to general pathologists and residents, suggesting that sufficient information may exist in their attention behavior to classify their expertise level. To attempt this, we trained a transformer-based model to predict the visual attention heatmaps of resident, general, and specialist (GU) pathologists during Gleason grading. Based solely on a pathologist's attention during a reading, our model was able to predict their level of expertise with 75.3%, 56.1%, and 77.2% accuracy, respectively, better than chance and baseline models. Our model therefore enables a pathologist's expertise level to be easily and objectively evaluated, important for pathology training and competency assessment. Tools developed from our model could also be used to help pathology trainees learn how to read WSIs like an expert.
- Abstract(参考訳): 本研究は, がん検診における注意の配分方法に基づいて, 病理医の専門知識を分類する手法を提案する。
本研究は,前立腺全スライディング画像(WSI)を読み,がん学級分類を作成することによって,病理医の注意を予測できる新しい手法を開発することで,この復号化作業に従事している。
病理学者が注意を払っているのは、読み上げ中にWSIを通ったときのビューポートのx, y, zの動きであり、現在までに123WSIを読んでいる43人の病理医の注意行動がある。
これらのデータから, 一般病理医や住民と比較して, 注意度とがん度は高く, 注意行動に十分な情報が存在する可能性が示唆された。
そこで我々は,Gleason グレーディング中の住民,一般,専門医(GU)の視覚的注意熱マップを予測するために,トランスフォーマーに基づくモデルを訓練した。
読み上げ時の病理学者の注意のみに基づいて、我々のモデルは、それぞれ75.3%、56.1%、77.2%の精度で彼らの専門知識のレベルを予測することができた。
そこで本モデルは,病理学の専門知識レベルを,病理学のトレーニングや能力評価において,容易かつ客観的に評価することを可能にした。
私たちのモデルから開発されたツールは、病理研修生が専門家のようにWSIを読む方法を学ぶのを助けるためにも使えます。
関連論文リスト
- Pathologist-like explainable AI for interpretable Gleason grading in prostate cancer [3.7226270582597656]
我々は,54人の病理学者からなる国際グループによって注釈された1015個の組織マイクロアレイコア画像の新たなデータセットを紹介した。
これらのアノテーションは、国際ガイドラインに従ってグリーソン格付けを行うための詳細な局所的なパターン記述を提供する。
我々は、病理学者の用語を利用した予測を提供するU-Netアーキテクチャに基づく、本質的に説明可能なAIシステムを開発する。
論文 参考訳(メタデータ) (2024-10-19T06:58:26Z) - Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - Exploring Explainable AI Techniques for Improved Interpretability in Lung and Colon Cancer Classification [0.0]
肺がんと大腸がんは世界中で深刻な健康上の問題であり、死亡リスクを減らすためには早期かつ正確な診断が必要である。
組織学は依然として金の標準であり続けているが、サーバ間のミスには時間がかかり、脆弱である。
近年のディープラーニングの進歩は、医療画像解析への応用への関心を生んでいる。
論文 参考訳(メタデータ) (2024-05-07T18:49:34Z) - Knowledge-enhanced Visual-Language Pretraining for Computational Pathology [68.6831438330526]
本稿では,公共資源から収集した大規模画像テキストペアを利用した視覚的表現学習の課題について考察する。
ヒト32組織から病理診断を必要とする4,718の疾患に対して50,470個の情報属性からなる病理知識ツリーをキュレートする。
論文 参考訳(メタデータ) (2024-04-15T17:11:25Z) - Data and Knowledge Co-driving for Cancer Subtype Classification on
Multi-Scale Histopathological Slides [4.22412600279685]
病理学者のような組織学的スライド上で癌サブタイプ分類の過程を再現するデータ・知識共同運転(D&K)モデルを提案する。
具体的には、データ駆動モジュールにおいて、アンサンブル学習におけるバッグング機構を利用して、埋め込み表現ユニットによって抽出された様々なバッグの組織学的特徴を統合する。
論文 参考訳(メタデータ) (2023-04-18T21:57:37Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Visual attention analysis of pathologists examining whole slide images
of Prostate cancer [29.609319636136426]
前立腺癌組織の全スライディング画像(WSI)をデジタル顕微鏡で観察し,病理医の注意を喚起した。
13名の病理医(生殖器専門医5名,一般病理医8名)からスライドナビゲーションデータを収集し,視線熱マップとスキャンパスを作成した。
WSIにおける病理医の注意とがんの証拠との関係を定量化するために, 生殖器専門医から腫瘍のアノテーションを入手した。
論文 参考訳(メタデータ) (2022-02-17T04:01:43Z) - Assessing glaucoma in retinal fundus photographs using Deep Feature
Consistent Variational Autoencoders [63.391402501241195]
緑内障は症状が重くなるまで無症状のままでいるため、検出が困難である。
緑内障の早期診断は機能的,構造的,臨床的評価に基づいて行われることが多い。
ディープラーニング手法はこのジレンマを、マーカー識別段階をバイパスし、ハイレベルな情報を分析してデータを分類することで部分的に解決している。
論文 参考訳(メタデータ) (2021-10-04T16:06:49Z) - Deeply supervised UNet for semantic segmentation to assist
dermatopathological assessment of Basal Cell Carcinoma (BCC) [2.031570465477242]
unetアーキテクチャに基づく複数のモデルを用いた意味セグメンテーションによる基底細胞癌(bcc)の検出に焦点を当てた。
unetネットワークの最初の2つの異なるエンコーダと2つの追加のトレーニング戦略を分析した。
最高のモデルは、テストセット上の96%、精度、感度、および特異性を達成します。
論文 参考訳(メタデータ) (2021-03-05T15:39:55Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。