論文の概要: Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study
- arxiv url: http://arxiv.org/abs/2308.02748v1
- Date: Fri, 4 Aug 2023 23:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:58:28.925853
- Title: Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study
- Title(参考訳): 視線追跡技術と機械学習を用いた放射線科医の識別
- Authors: Stanford Martinez, Carolina Ramirez-Tamayo, Syed Hasib Akhter Faruqui,
Kal L. Clark, Adel Alaeddini, Nicholas Czarnek, Aarushi Aggarwal, Sahra
Emamzadeh, Jeffrey R. Mock, Edward J. Golob
- Abstract要約: 本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
- 参考スコア(独自算出の注目度): 0.9142067094647588
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Perception-related errors comprise most diagnostic mistakes in radiology. To
mitigate this problem, radiologists employ personalized and high-dimensional
visual search strategies, otherwise known as search patterns. Qualitative
descriptions of these search patterns, which involve the physician verbalizing
or annotating the order he/she analyzes the image, can be unreliable due to
discrepancies in what is reported versus the actual visual patterns. This
discrepancy can interfere with quality improvement interventions and negatively
impact patient care. This study presents a novel discretized feature encoding
based on spatiotemporal binning of fixation data for efficient geometric
alignment and temporal ordering of eye movement when reading chest X-rays. The
encoded features of the eye-fixation data are employed by machine learning
classifiers to discriminate between faculty and trainee radiologists. We
include a clinical trial case study utilizing the Area Under the Curve (AUC),
Accuracy, F1, Sensitivity, and Specificity metrics for class separability to
evaluate the discriminability between the two subjects in regard to their level
of experience. We then compare the classification performance to
state-of-the-art methodologies. A repeatability experiment using a separate
dataset, experimental protocol, and eye tracker was also performed using eight
subjects to evaluate the robustness of the proposed approach. The numerical
results from both experiments demonstrate that classifiers employing the
proposed feature encoding methods outperform the current state-of-the-art in
differentiating between radiologists in terms of experience level. This
signifies the potential impact of the proposed method for identifying
radiologists' level of expertise and those who would benefit from additional
training.
- Abstract(参考訳): 知覚関連エラーは、放射線学において最も診断ミスである。
この問題を軽減するため、放射線科医はパーソナライズされた高次元のビジュアル検索戦略を用いる。
これらの探索パターンの質的記述は、医師が画像を分析した順序を口頭または注釈で示すことを含むが、実際の視覚パターンと何が報告されたかの不一致のために信頼できない。
この不一致は、品質改善の介入に干渉し、患者のケアに悪影響を及ぼす可能性がある。
本研究では,胸部X線読取時の眼球運動の時間的アライメントと時間的アライメントのための固定データの時空間結合に基づく新しい識別特徴符号化法を提案する。
眼固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
本研究は, 曲線下の領域(auc), 精度, f1, 感度, 特異性指標を用いた治験ケーススタディを含む。
次に分類性能を最先端手法と比較する。
また,提案手法のロバスト性を評価するために,別個のデータセット,実験プロトコル,アイトラッカーを用いた再現性実験を行った。
両実験の数値的な結果から,提案手法を用いた分類器は,経験レベルの観点から,放射線技師の差別化における現状よりも優れていることが示された。
このことは、放射線技師の専門知識レベルと追加訓練の恩恵を受ける人を特定するための提案手法の潜在的影響を示している。
関連論文リスト
- Inspecting Model Fairness in Ultrasound Segmentation Tasks [20.281029492841878]
2つの超音波データセットを用いて,一連の深層学習(DL)セグメンテーションモデルについて検討する。
以上の結果から,最先端のDLアルゴリズムでさえ,超音波セグメンテーション作業において不公平な動作を示すことが明らかとなった。
これらの結果は重要な警告として機能し、実際のシナリオに展開する前に、慎重にモデル評価を行う必要性を強調します。
論文 参考訳(メタデータ) (2023-12-05T05:08:08Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Debiasing Deep Chest X-Ray Classifiers using Intra- and Post-processing
Methods [9.152759278163954]
本研究では、すでに訓練済みのニューラルネットワークを微調整および刈り取ることに基づく2つの新しいプロセス内処理手法を提案する。
我々の知る限りでは、胸部X線写真における脱バイアス法の研究としては、これが最初の試みの1つである。
論文 参考訳(メタデータ) (2022-07-26T10:18:59Z) - Learning from Multiple Expert Annotators for Enhancing Anomaly Detection
in Medical Image Analysis [0.31317409221921133]
医用画像解析において、複数の専門家アノテータは「地上の真実ラベル」に関する主観的な推定をしばしば生成する。
深層学習に基づく検知器の訓練のために,複数の放射線学の専門家によるアノテーションを組み合わせた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-20T17:57:26Z) - Hierarchical Analysis of Visual COVID-19 Features from Chest Radiographs [5.832030105874915]
我々は, 放射線学的決定プロセスと整合した, 人間の解釈可能なクラス階層を用いて, 放射線学的特徴をモデル化する。
実験により、モデル故障は、ICU撮像条件と非常に相関し、特定の種類の放射線学的特徴を識別することが本質的に困難であることが示されている。
論文 参考訳(メタデータ) (2021-07-14T11:37:28Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Classifying Eye-Tracking Data Using Saliency Maps [8.524684315458245]
本稿では,視線追跡データの自動的,定量的分類のための視覚情報に基づく特徴抽出手法を提案する。
サリエンシの振幅、類似度、相違点を対応するアイフィクスマップと比較すると、視覚追跡データを識別するために識別的特徴を生成するために有効に活用される情報の余分な次元が得られる。
論文 参考訳(メタデータ) (2020-10-24T15:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。