論文の概要: Eye-Tracking as a Tool to Quantify the Effects of CAD Display on Radiologists' Interpretation of Chest Radiographs
- arxiv url: http://arxiv.org/abs/2510.20864v1
- Date: Thu, 23 Oct 2025 00:47:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.273942
- Title: Eye-Tracking as a Tool to Quantify the Effects of CAD Display on Radiologists' Interpretation of Chest Radiographs
- Title(参考訳): 放射線医の胸部X線写真解釈におけるCADディスプレイの効果の定量化ツールとしてのアイトラック
- Authors: Daisuke Matsumoto, Tomohiro Kikuchi, Yusuke Takagi, Soichiro Kojima, Ryoma Kobayashi, Daiju Ueda, Kohei Yamamoto, Sho Kawabe, Harushi Mori,
- Abstract要約: バウンディングボックス(BB)ハイライトなどの同時リーダディスプレイは、読み取りプロセスに影響を与える可能性がある。
このパイロットスタディでは、視線追跡を用いて、視覚検索のどの側面が影響されたかを定量化した。
- 参考スコア(独自算出の注目度): 2.667226291119898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Rationale and Objectives: Computer-aided detection systems for chest radiographs are widely used, and concurrent reader displays, such as bounding-box (BB) highlights, may influence the reading process. This pilot study used eye tracking to conduct a preliminary experiment to quantify which aspects of visual search were affected. Materials and Methods: We sampled 180 chest radiographs from the VinDR-CXR dataset: 120 with solitary pulmonary nodules or masses and 60 without. The BBs were configured to yield an overall display sensitivity and specificity of 80%. Three radiologists (with 11, 5, and 1 years of experience, respectively) interpreted each case twice - once with BBs visible and once without - after a washout of >= 2 weeks. Eye movements were recorded using an EyeTech VT3 Mini. Metrics included interpretation time, time to first fixation on the lesion, lesion dwell time, total gaze-path length, and lung-field coverage ratio. Outcomes were modeled using a linear mixed model, with reading condition as a fixed effect and case and reader as random intercepts. The primary analysis was restricted to true positives (n=96). Results: Concurrent BB display prolonged interpretation time by 4.9 s (p<0.001) and increased lesion dwell time by 1.3 s (p<0.001). Total gaze-path length increased by 2,076 pixels (p<0.001), and lung-field coverage ratio increased by 10.5% (p<0.001). Time to first fixation on the lesion was reduced by 1.3 s (p<0.001). Conclusion: Eye tracking captured measurable alterations in search behavior associated with concurrent BB displays during chest radiograph interpretation. These findings support the feasibility of this approach and highlight the need for larger studies to confirm effects and explore implications across modalities and clinical contexts.
- Abstract(参考訳): Rationale and Objectives: 胸部X線写真のためのコンピュータ支援検出システムが広く使われており、バウンディングボックス(BB)ハイライトなどの同時読影ディスプレイが読影プロセスに影響を与える可能性がある。
このパイロットスタディでは、視線追跡を使用して、視覚検索のどの側面が影響したかを定量化するための予備的な実験を行った。
対象と方法: VinDR-CXRデータセットから180個の胸部X線像を採取した。
BBは全体の表示感度と特異度を80%に設定した。
放射線科医3名(それぞれ11歳,5歳,1歳)は, BBが1回, BBが1回, 単独で2回, 洗浄後2週間で各症例を解釈した。
眼球運動はEyeTech VT3 Miniで記録された。
内容は,解釈時間,病変に対する初回固定時間,病変拡大時間,全視線パス長,肺野被覆率であった。
結果は線形混合モデルを用いてモデル化され、読み出し条件を固定効果とし、読み出し条件をランダムインターセプトとした。
一次分析は真陽性(n=96。
結果:コンカレントBBは解釈時間を4.9秒(p<0.001)延長し,病変密度を1.3秒(p<0.001)増加させた。
総視線パス長は2,076ピクセル(p<0.001)増加し,肺野面積比は10.5%増加(p<0.001)した。
初回固定期間は1.3秒(p<0.001。
結語: 胸部X線写真読影中に同時BB表示に伴う探索行動の変化を計測し, 視線追跡を行った。
これらの知見は、このアプローチの実現可能性を支持し、効果を確認し、モダリティと臨床コンテキストにまたがる影響を探求するより大きな研究の必要性を強調している。
関連論文リスト
- Automated Cervical Os Segmentation for Camera-Guided, Speculum-Free Screening [38.85521544870542]
本研究は,経血管内視鏡的画像における頸部骨のリアルタイム分割のための深層学習法について検討した。
DICE(0.50 pm 0.31)と検出レート(0.87 pm 0.33)を達成した。
これらの結果は、非専門的な使用をサポートするために、自動os認識を投機のない頸部検診装置に統合するための基盤を確立する。
論文 参考訳(メタデータ) (2025-09-12T14:19:27Z) - SegFormer Fine-Tuning with Dropout: Advancing Hair Artifact Removal in Skin Lesion Analysis [0.0]
皮膚内視鏡像の毛細血管は皮膚病変を正確に解析する上で重要な課題である。
この研究は、正確にヘアマスクのセグメンテーションを実現するために、ドロップアウト正規化を付加した微調整のSegFormerモデルを導入する。
論文 参考訳(メタデータ) (2025-09-02T10:06:26Z) - Lung-CADex: Fully automatic Zero-Shot Detection and Classification of Lung Nodules in Thoracic CT Images [45.29301790646322]
コンピュータ支援診断は早期の肺結節の検出に役立ち、その後の結節の特徴づけを促進する。
MedSAMと呼ばれるSegment Anything Modelの変種を用いて肺結節をゼロショットでセグメント化するためのCADeを提案する。
また、放射能特徴のギャラリーを作成し、コントラスト学習を通じて画像と画像のペアを整列させることにより、良性/良性としての結節的特徴付けを行うCADxを提案する。
論文 参考訳(メタデータ) (2024-07-02T19:30:25Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - Improving Automated Hemorrhage Detection in Sparse-view Computed Tomography via Deep Convolutional Neural Network based Artifact Reduction [3.9874211732430447]
3000例のSparse-view cranial CTによるアーティファクト削減のためのU-Netの訓練を行った。
また, 自動出血検出のために17,545例のCTデータから畳み込みニューラルネットワークを訓練した。
U-Netは、画像の品質や出血の自動診断に関して、未処理画像やテレビ処理画像よりも優れていた。
論文 参考訳(メタデータ) (2023-03-16T14:21:45Z) - Time-distance vision transformers in lung cancer diagnosis from
longitudinal computed tomography [4.924544172166966]
縦断的医療画像は、データ取得において、スパース、不規則な時間間隔というユニークな課題を提示する。
本研究では、連続時間のベクトル埋め込みと時間強調モデルを用いて、自己注意重みを拡大する時間距離視覚変換器(ViT)の2つの解釈を提案する。
この研究は、縦断的医療画像の分類のための最初の自己注意に基づくフレームワークである。
論文 参考訳(メタデータ) (2022-09-04T19:08:44Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - Effect of Input Size on the Classification of Lung Nodules Using
Convolutional Neural Networks [0.12891210250935145]
低用量CTによる肺がん検診は,従来の胸部X線撮影と比較して肺がん死亡率を20%低下させる。
コンピュータ支援検出システム(CAD)は,CTスキャンのスライス数を最大600にし,高速かつ高精度なデータ評価に極めて重要である。
本研究では, 畳み込みニューラルネットワーク(CNN)を用いてCT肺検診を解析し, 偽陽性を減少させる枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-11T16:52:30Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - Predicting COVID-19 Pneumonia Severity on Chest X-ray with Deep Learning [57.00601760750389]
前頭部胸部X線画像の重症度予測モデルを提案する。
このようなツールは、エスカレーションやケアの非エスカレーションに使用できる新型コロナウイルスの肺感染症の重症度を測定することができる。
論文 参考訳(メタデータ) (2020-05-24T23:13:16Z) - Automated Quantification of CT Patterns Associated with COVID-19 from
Chest CT [48.785596536318884]
提案法は,非造影胸部CTを入力として,病変,肺,葉を3次元に分割する。
この方法では、肺の重症度と葉の関与度を2つの組み合わせて測定し、COVID-19の異常度と高不透明度の存在度を定量化する。
このアルゴリズムの評価は、カナダ、ヨーロッパ、米国からの200人の参加者(感染者100人、健康管理100人)のCTで報告されている。
論文 参考訳(メタデータ) (2020-04-02T21:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。