論文の概要: Comparing radiologists' gaze and saliency maps generated by
interpretability methods for chest x-rays
- arxiv url: http://arxiv.org/abs/2112.11716v1
- Date: Wed, 22 Dec 2021 07:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:07:03.619939
- Title: Comparing radiologists' gaze and saliency maps generated by
interpretability methods for chest x-rays
- Title(参考訳): 胸部X線解釈可能性法による放射線医の視線と衛生地図の比較
- Authors: Ricardo Bigolin Lanfredi, Ambuj Arora, Trafton Drew, Joyce D.
Schroeder, Tolga Tasdizen
- Abstract要約: 5人の放射線科医による視線追跡データのデータセットを用いて、解釈可能性の手法の出力と、放射線科医がどこに見えるかを示す熱マップを比較した。
文献から選択した2つの方法(グラッド・CAMとアテンション・ゲートモデルからのアテンション・マップ)によって生成されるサリエンシ・マップのクラス非依存的な分析を行う。
この結果から,Grad-CAMによる画像に対する放射線技師の注意を反映したサリエンシマップの可能性を強調した。
- 参考スコア(独自算出の注目度): 7.74887971157832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interpretability of medical image analysis models is considered a key
research field. We use a dataset of eye-tracking data from five radiologists to
compare the outputs of interpretability methods against the heatmaps
representing where radiologists looked. We conduct a class-independent analysis
of the saliency maps generated by two methods selected from the literature:
Grad-CAM and attention maps from an attention-gated model. For the comparison,
we use shuffled metrics, which avoid biases from fixation locations. We achieve
scores comparable to an interobserver baseline in one shuffled metric,
highlighting the potential of saliency maps from Grad-CAM to mimic a
radiologist's attention over an image. We also divide the dataset into subsets
to evaluate in which cases similarities are higher.
- Abstract(参考訳): 医用画像解析モデルの解釈性は重要な研究分野である。
5人の放射線科医による視線追跡データのデータセットを用いて、解釈可能性法の出力と、放射線科医が見た場所を表すヒートマップを比較した。
文献から選択した2つの手法(grad-camとententention map)で生成した塩分マップのクラス非依存解析を行う。
比較のために、固定位置からのバイアスを避けるシャッフルメトリクスを使用します。
この結果から,Grad-CAMによる画像に対する放射線技師の注意を反映したサリエンシマップの可能性を強調した。
また、データセットをサブセットに分割して、類似度が高い場合を評価する。
関連論文リスト
- Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study [0.9142067094647588]
本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
論文 参考訳(メタデータ) (2023-08-04T23:51:47Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Using Multi-modal Data for Improving Generalizability and Explainability
of Disease Classification in Radiology [0.0]
従来の放射線診断用データセットは、放射線診断報告と並行して放射線画像のみを提供する傾向にある。
本稿では、最近発表されたEye-Gazeデータセットを用いて、ディープラーニング(DL)分類の性能と説明可能性への影響を徹底的に研究する。
X線画像の最良の分類性能は, 自由テキスト画像と無線画像との組み合わせで達成され, 視線データによる性能向上は得られなかった。
論文 参考訳(メタデータ) (2022-07-29T16:49:05Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Classification of Viral Pneumonia X-ray Images with the Aucmedi
Framework [0.0]
我々はAUCMEDIフレームワークを用いて深部神経ネットワークを訓練し、胸部X線画像を正常またはウイルス性肺炎と分類する。
Grad-CAMとLIMEの説明可能な人工知能(XAI)アルゴリズムを用いて、予測に最も重要な画像特徴を視覚化する。
論文 参考訳(メタデータ) (2021-10-03T14:57:43Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Nodule2vec: a 3D Deep Learning System for Pulmonary Nodule Retrieval
Using Semantic Representation [1.7403133838762446]
肺結節の3次元像をCTスキャンから低次元埋め込みベクトルに変換する深層学習システムを提案する。
このようなベクトル表現は、結節に関する意味情報を保存し、コンテンツベース画像検索(CBIR)に実行可能なアプローチを提供することを示す。
医師とアルゴリズムのスコアを比較すると、このシステムが無線技師のエンドユーザに提供する利点は、第2の放射線技師の意見に匹敵するものであることが示唆されている。
論文 参考訳(メタデータ) (2020-07-11T16:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。