論文の概要: Interpreting Radiologist's Intention from Eye Movements in Chest X-ray Diagnosis
- arxiv url: http://arxiv.org/abs/2507.12461v1
- Date: Wed, 16 Jul 2025 17:58:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.511497
- Title: Interpreting Radiologist's Intention from Eye Movements in Chest X-ray Diagnosis
- Title(参考訳): 胸部X線診断における眼球運動からの放射線技師の意図の解釈
- Authors: Trong-Thang Pham, Anh Nguyen, Zhigang Deng, Carol C. Wu, Hien Van Nguyen, Ngan Le,
- Abstract要約: 放射線技師は医療画像のナビゲートと解釈に眼球運動に依存している。
訓練された放射線学者は、画像に存在する可能性のある潜在的な疾患についての知識を持ち、探すと、それらを見つけるための精神的なチェックリストに従う。
これは重要な観察であるが、既存のモデルはそれぞれの固定の背後にある基本的な意図を捉えていない。
我々は、この振る舞いをモデル化するために設計されたディープラーニングベースのアプローチ、RadGazeIntentを導入する。
- 参考スコア(独自算出の注目度): 13.125637740252403
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Radiologists rely on eye movements to navigate and interpret medical images. A trained radiologist possesses knowledge about the potential diseases that may be present in the images and, when searching, follows a mental checklist to locate them using their gaze. This is a key observation, yet existing models fail to capture the underlying intent behind each fixation. In this paper, we introduce a deep learning-based approach, RadGazeIntent, designed to model this behavior: having an intention to find something and actively searching for it. Our transformer-based architecture processes both the temporal and spatial dimensions of gaze data, transforming fine-grained fixation features into coarse, meaningful representations of diagnostic intent to interpret radiologists' goals. To capture the nuances of radiologists' varied intention-driven behaviors, we process existing medical eye-tracking datasets to create three intention-labeled subsets: RadSeq (Systematic Sequential Search), RadExplore (Uncertainty-driven Exploration), and RadHybrid (Hybrid Pattern). Experimental results demonstrate RadGazeIntent's ability to predict which findings radiologists are examining at specific moments, outperforming baseline methods across all intention-labeled datasets.
- Abstract(参考訳): 放射線技師は医療画像のナビゲートと解釈に眼球運動に依存している。
訓練された放射線学者は、画像に存在する可能性のある潜在的な疾患について知識を持っており、探すと、精神的なチェックリストに従って視線を使ってそれらを見つける。
これは重要な観察であるが、既存のモデルはそれぞれの固定の背後にある基本的な意図を捉えていない。
本稿では,ディープラーニングに基づくアプローチであるRadGazeIntentを紹介し,その振る舞いをモデル化する。
我々のトランスフォーマーベースのアーキテクチャは、視線データの時間次元と空間次元の両方を処理し、微細な固定特徴を、放射線学者の目標を解釈するための診断意図の粗い意味のある表現に変換する。
RadSeq (Systematic Sequential Search)、RadExplore (Uncertainty-driven Exploration)、RadHybrid (Hybrid Pattern)の3つの意図的にラベル付けされたサブセットを作成するために、既存の医用アイトラッキングデータセットを処理する。
実験の結果、RadGazeIntentは、放射線科医が特定の瞬間に検査している所見を予測する能力を示し、すべての意図ラベル付きデータセットのベースライン手法を上回った。
関連論文リスト
- FG-CXR: A Radiologist-Aligned Gaze Dataset for Enhancing Interpretability in Chest X-Ray Report Generation [9.374812942790953]
我々は, 放射線学者が生成したキャプションと, 各解剖学の視線注意熱マップとの間に, 微粒なペアリング情報を提供するFine-Grained CXRデータセットを提案する。
解析の結果, ブラックボックス画像キャプション法を用いてレポートを生成するだけでは, CXRのどの情報を利用するのかを適切に説明できないことがわかった。
本稿では, 放射線科医の視線と転写の両面を密接に一致させるため, 放射線科医の診断過程を模倣する新しい注意生成ネットワーク(Gen-XAI)を提案する。
論文 参考訳(メタデータ) (2024-11-23T02:22:40Z) - GazeSearch: Radiology Findings Search Benchmark [9.21918773048464]
医用アイトラッキングデータは、放射線医が医療画像をどのように視覚的に解釈するかを理解するための重要な情報源である。
現在の視線追跡データは分散され、処理されず、曖昧であり、意味のある洞察を導き出すことが困難である。
本研究では,目標となる視覚探索課題に触発された改良手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T18:47:08Z) - Multimodal Learning and Cognitive Processes in Radiology: MedGaze for Chest X-ray Scanpath Prediction [10.388541520456714]
提案システムは,放射線学報告やCXR画像から視線シーケンスを予測することを目的としている。
本モデルでは, 医用スキャンパス予測において重要な固定座標と期間を予測し, コンピュータビジョンコミュニティにおける既存モデルよりも優れていた。
放射線学者の評価に基づいて、MedGazeは関連する領域に焦点をあてたヒトのような視線配列を生成することができる。
論文 参考訳(メタデータ) (2024-06-28T06:38:58Z) - Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - I-AI: A Controllable & Interpretable AI System for Decoding
Radiologists' Intense Focus for Accurate CXR Diagnoses [9.260958560874812]
解釈可能な人工知能(I-AI)は、新しく統一された制御可能な解釈可能なパイプラインである。
私たちのI-AIは、放射線科医がどこに見えるか、特定の領域にどのくらい焦点を合わせるか、どの発見を診断するか、という3つの重要な疑問に対処しています。
論文 参考訳(メタデータ) (2023-09-24T04:48:44Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language Models [72.8965643836841]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。