論文の概要: GazeXPErT: An Expert Eye-tracking Dataset for Interpretable and Explainable AI in Oncologic FDG-PET/CT Scans
- arxiv url: http://arxiv.org/abs/2603.00162v1
- Date: Thu, 26 Feb 2026 04:39:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.071833
- Title: GazeXPErT: An Expert Eye-tracking Dataset for Interpretable and Explainable AI in Oncologic FDG-PET/CT Scans
- Title(参考訳): GazeXPErT:オンコロジーFDG-PET/CTスキャンにおける解釈可能な、説明可能なAIのためのエキスパートアイトラッキングデータセット
- Authors: Joy T Wu, Daniel Beckmann, Sarah Miller, Alexander Lee, Elizabeth Theng, Stephan Altmayer, Ken Chang, David Kersting, Tomoaki Otani, Brittany Z Dashevsky, Hye Lim Park, Matteo Novello, Kip Guja, Curtis Langlotz, Ismini Lourentzou, Daniel Gruhl, Benjamin Risse, Guido A Davidzon,
- Abstract要約: 腫瘍検出および測定中に専門的な探索パターンを抽出した4DアイトラッキングデータセットであるGazeXPErTを提案する。
生の60Hzの視線追跡データの3,948分から,9,030個の独自の視線線軌跡を抽出し,PET/CT画像スライスと同期し,機械学習用COCOスタイルでレンダリングした。
- 参考スコア(独自算出の注目度): 32.135469601806754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: [18F]FDG-PET/CT is a cornerstone imaging modality for tumor staging and treatment response assessment across many cancer types, yet expert reader shortages necessitate more efficient diagnostic aids. While standalone AI models for automatic lesion segmentation exist, clinical translation remains hindered by concerns about interpretability, explainability, reliability, and workflow integration. We present GazeXPErT, a 4D eye-tracking dataset capturing expert search patterns during tumor detection and measurement on 346 FDG-PET/CT scans. Each study was read by a trainee and a board-certified nuclear medicine or radiology specialist using an eye-tracking-enabled annotation platform that simulates routine clinical reads. From 3,948 minutes of raw 60Hz eye-tracking data, 9,030 unique gaze-to-lesion trajectories were extracted, synchronized with PET/CT image slices, and rendered in COCO-style format for multiple machine learning applications. Baseline validation experiments demonstrate that a 3D nnUNet tumor segmentation model achieved superior performance when incorporating expert gaze patterns versus without (DICE score 0.6819 versus 0.6008), and that vision transformers trained on sequential gaze and PET/CT images can improve dynamic lesion localization (74.95% predicted gaze point closer to tumor) and expert intention prediction (Accuracy 67.53% and AUROC 0.747). GazeXPErT is a valuable resource designed to explore multiple machine learning problems beyond these baseline experiments, which include and are not limited to, visual grounding or causal reasoning, clinically explainable feature augmentation, human-computer interaction, human intention prediction or understanding, and expert gaze-rewarded modeling approaches to AI in oncologic FDG-PET/CT imaging.
- Abstract(参考訳): 18F]FDG-PET/CTは腫瘍のステージングと治療反応の評価のための基礎的な画像モダリティであるが、専門家の読者はより効率的な診断支援を必要としている。
自動病変分割のためのスタンドアロンのAIモデルが存在するが、臨床翻訳は解釈可能性、説明可能性、信頼性、ワークフロー統合に関する懸念によって妨げられている。
腫瘍検出と346個のFDG-PET/CTスキャンによる検索パターンの抽出を行った4DアイトラッキングデータセットであるGazeXPErTを提案する。
各研究は、定期的な臨床読解をシミュレートするアイトラッキング可能なアノテーションプラットフォームを使用して、研修医と核医学または放射線医学の専門家によって読み上げられた。
生の60Hzの視線追跡データの3,948分から,9,030個の視線-視線軌跡を抽出し,PET/CT画像スライスと同期し,複数の機械学習アプリケーション向けにCOCOスタイルでレンダリングした。
ベースライン検証実験により、3D nnUNet腫瘍セグメンテーションモデルは、専門家の視線パターンを非使用(DICEスコア0.6819 vs 0.6008)に組み込むことで優れた性能を達成し、シーケンシャルな視線とPET/CT画像で訓練された視覚変換器は、ダイナミックな病変の局所化(74.95%が腫瘍に近い視線点を予測)と専門家の意図予測(精度67.53%とAUROC 0.747)を改善できることを示した。
GazeXPErTは、これらのベースライン実験を超えて、視覚的根拠や因果推論、臨床的に説明可能な機能拡張、人間とコンピュータの相互作用、人間の意図の予測や理解、および腫瘍学的FDG-PET/CTイメージングにおけるAIに対する専門家の視線関連モデリングアプローチを含む、複数の機械学習問題を探索するために設計された貴重なリソースである。
関連論文リスト
- Unveiling and Bridging the Functional Perception Gap in MLLMs: Atomic Visual Alignment and Hierarchical Evaluation via PET-Bench [48.60251555171943]
MLLM(Multimodal Large Language Models)は、異常検出や解剖学的モダリティのレポート生成などのタスクにおいて、顕著な熟練性を示した。
本研究では, 機能的トレーサの生体分布を, 形態的先行性とは無関係に復号化できない現状の視覚エンコーダについて, 基本的な機能的知覚ギャップを定量化する。
PET-Benchは52,308個の階層型QAペアからなるPET-Benchの最初の大規模機能評価ベンチマークである。
AVAは認知ギャップを効果的に橋渡しし、CoTを幻覚源から頑健な推論ツールに変換し、診断を改善していることを示す。
論文 参考訳(メタデータ) (2026-01-06T05:58:50Z) - Vision-Language Models for Automated 3D PET/CT Report Generation [13.781844347232079]
自己PET/CTレポート生成は, 臨床負荷軽減にますます重要である。
PETRG-3Dは、PETとCTのボリュームをエンコードし、スタイル適応プロンプトを組み込んだエンドツーエンドの3Dデュアルブランチフレームワークである。
PETRG-Score(PETRG-Score)は、悪性リンパ腫に特異的な評価プロトコルである。
論文 参考訳(メタデータ) (2025-11-25T10:07:57Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - AutoPET III Challenge: Tumor Lesion Segmentation using ResEnc-Model Ensemble [1.3467243219009812]
我々は,新しいU-Netフレームワーク内で3次元残留エンコーダU-Netを訓練し,自動病変分割の性能を一般化した。
腫瘍病変のセグメンテーションを増強するために,テストタイム増強や他の後処理技術を利用した。
現在、私たちのチームはAuto-PET IIIチャレンジでトップの地位にあり、Diceスコア0.9627の予備テストセットでチャレンジベースラインモデルを上回っています。
論文 参考訳(メタデータ) (2024-09-19T20:18:39Z) - Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT [4.376648893167674]
AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
論文 参考訳(メタデータ) (2024-09-18T17:16:57Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - Towards a Holistic Framework for Multimodal Large Language Models in Three-dimensional Brain CT Report Generation [42.06416052431378]
2Dラジオグラフィーキャプションは、ボリューム3D解剖学における現実の診断課題を反映するものではない。
我々は18,885組の3D-BrainCTデータセットを収集し,臨床ビジュアルインストラクション・チューニングを用いて,脳波モデルを用いて放射線治療を施した3D脳CTレポートを作成した。
私たちの研究は、3Dの脳CTデータセットのキュレーション、微調整による解剖学的意味のある言語モデル、堅牢な放射線学評価指標の提案など、総合的な枠組みを具現化したものです。
論文 参考訳(メタデータ) (2024-07-02T12:58:35Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。