論文の概要: Eye-Tracking, Mouse Tracking, Stimulus Tracking,and Decision-Making Datasets in Digital Pathology
- arxiv url: http://arxiv.org/abs/2510.24653v1
- Date: Tue, 28 Oct 2025 17:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.302104
- Title: Eye-Tracking, Mouse Tracking, Stimulus Tracking,and Decision-Making Datasets in Digital Pathology
- Title(参考訳): 視線追跡, マウス追跡, 刺激追跡, およびデジタル病理における意思決定データセット
- Authors: Veronica Thai, Rui Li, Meng Ling, Shuning Jiang, Jeremy Wolfe, Raghu Machiraju, Yan Hu, Zaibo Li, Anil Parwani, Jian Chen,
- Abstract要約: PathoGaze1.0は,がん診断時の動的視覚探索と意思決定過程を解析した行動データセットである。
データセットは18.69時間の視線追跡、マウスの相互作用、追跡刺激、ビューポートナビゲーション、診断決定データ(EMSVD)で構成されている。
合計171,909個の固定,263,320個のサケード,1,867,362個のマウスの相互作用イベントが記録された。
- 参考スコア(独自算出の注目度): 13.324856749758125
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Interpretation of giga-pixel whole-slide images (WSIs) is an important but difficult task for pathologists. Their diagnostic accuracy is estimated to average around 70%. Adding a second pathologist does not substantially improve decision consistency. The field lacks adequate behavioral data to explain diagnostic errors and inconsistencies. To fill in this gap, we present PathoGaze1.0, a comprehensive behavioral dataset capturing the dynamic visual search and decision-making processes of the full diagnostic workflow during cancer diagnosis. The dataset comprises 18.69 hours of eye-tracking, mouse interaction, stimulus tracking, viewport navigation, and diagnostic decision data (EMSVD) collected from 19 pathologists interpreting 397 WSIs. The data collection process emphasizes ecological validity through an application-grounded testbed, called PTAH. In total, we recorded 171,909 fixations, 263,320 saccades, and 1,867,362 mouse interaction events. In addition, such data could also be used to improve the training of both pathologists and AI systems that might support human experts. All experiments were preregistered at https://osf.io/hj9a7, and the complete dataset along with analysis code is available at https://go.osu.edu/pathogaze.
- Abstract(参考訳): ギガピクセル全スライディング画像(WSI)の解釈は病理学者にとって重要であるが難しい課題である。
診断精度は平均約70%と推定されている。
第2の病理医を追加することは、決定の一貫性を大幅に改善するものではない。
この分野には、診断ミスと矛盾を説明するための適切な行動データがない。
このギャップを埋めるために、癌診断中の全診断ワークフローの動的視覚探索と意思決定過程を総合的な行動データセットであるPathoGaze1.0を提案する。
このデータセットは、18.69時間の視線追跡、マウスの相互作用、刺激追跡、ビューポートナビゲーション、および397 WSIを解釈する19人の病理学者から収集された診断決定データ(EMSVD)で構成されている。
データ収集プロセスは、PTAHと呼ばれるアプリケーション基底テストベッドを通じて生態学的妥当性を強調する。
合計171,909個の固定,263,320個のサケード,1,867,362個のマウスの相互作用イベントが記録された。
さらに、そのようなデータは、人間の専門家を支援するかもしれない病理学者とAIシステムのトレーニングを改善するためにも使用できる。
すべての実験はhttps://osf.io/hj9a7で事前登録され、分析コードとともに完全なデータセットがhttps://go.osu.edu/pathogazeで利用可能である。
関連論文リスト
- Pathology-CoT: Learning Visual Chain-of-Thought Agent from Expert Whole Slide Image Diagnosis Behavior [6.583135094946921]
3つの重要なブレークスルーを通じて、この問題に対処するために設計されたフレームワークを紹介します。
まず、AI Session Recorderは、標準的な全スライド画像ビューアとシームレスに統合される。
第2に、ライトウェイトなヒューマン・イン・ザ・ループ・レビューは、行動コマンドのAIドラフトによる合理性を、Pathology-CoTデータセットに変換する。
第三に、我々のフレームワークはエージェントの病理を実践し、ヒトに適応し、アップグレード可能な臨床AIへの道を確立します。
論文 参考訳(メタデータ) (2025-10-06T08:44:04Z) - A Graph-Based Framework for Interpretable Whole Slide Image Analysis [86.37618055724441]
我々は,全スライディング画像を生物学的にインフォームドされたグラフ表現に変換するフレームワークを開発した。
我々のアプローチは、任意の格子ではなく、自然構造を尊重する組織領域からグラフノードを構築する。
がんのステージングと生存予測の課題に強いパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-03-14T20:15:04Z) - Detecting and clustering swallow events in esophageal long-term high-resolution manometry [48.688209040613216]
深達度学習に基づく飲み込み検出法を提案し, 二次性非解離性食道運動障害を正確に同定する。
われわれは,25 LTHRMで計算パイプラインを評価し,医療専門家の注意を喚起した。
論文 参考訳(メタデータ) (2024-05-02T09:41:31Z) - DDxT: Deep Generative Transformer Models for Differential Diagnosis [51.25660111437394]
より単純な教師付き学習信号と自己教師付き学習信号で訓練した生成的アプローチが,現在のベンチマークにおいて優れた結果が得られることを示す。
The proposed Transformer-based generative network, named DDxT, autoregressive produce a set of possible pathology,, i. DDx, and predicts the real pathology using a neural network。
論文 参考訳(メタデータ) (2023-12-02T22:57:25Z) - Artificial intelligence in digital pathology: a systematic review and meta-analysis of diagnostic test accuracy [0.5420492913071214]
この体系的なレビューとメタアナリシスは、あらゆる種類の人工知能を用いた診断精度の研究を含む。
包含物として100の研究が同定され、152,000枚以上のスライド画像 (WSI) に相当し、多くの病型を表わした。
これらの研究では、平均感度は96.3%(CI 94.1-97.7)、平均特異度は93.3%(CI 90.5-95.4)であった。
全体として、AIはWSIに適用した場合に適切な精度を提供するが、そのパフォーマンスをより厳格に評価する必要がある。
論文 参考訳(メタデータ) (2023-06-13T00:45:54Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - Learning from Subjective Ratings Using Auto-Decoded Deep Latent
Embeddings [23.777855250882244]
ラベルにおける主観性管理は医用画像解析における根本的な問題である。
自動復号型ディープ潜在埋め込み(addle)を導入する
ADDLEは自動デコーダフレームワークを使用して各レーダの傾向を明示的にモデル化する。
論文 参考訳(メタデータ) (2021-04-12T15:40:42Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。