論文の概要: Supporting Mitosis Detection AI Training with Inter-Observer Eye-Gaze Consistencies
- arxiv url: http://arxiv.org/abs/2404.01656v1
- Date: Tue, 2 Apr 2024 05:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:48:15.845783
- Title: Supporting Mitosis Detection AI Training with Inter-Observer Eye-Gaze Consistencies
- Title(参考訳): 観察者間視線一貫性を用いたミトコンドリア検出AIトレーニング支援
- Authors: Hongyan Gu, Zihan Yan, Ayesha Alvi, Brandon Day, Chunxu Yang, Zida Wu, Shino Magaki, Mohammad Haeri, Xiang 'Anthony' Chen,
- Abstract要約: 本研究では、医師の行動データをAIトレーニングのために収集する費用対効果技術としての視線追跡について検討する。
視線データを使用する際の大きな課題の1つは、意味のある情報の抽出を妨げる低信号対雑音比である。
- 参考スコア(独自算出の注目度): 11.932283366786121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The expansion of artificial intelligence (AI) in pathology tasks has intensified the demand for doctors' annotations in AI development. However, collecting high-quality annotations from doctors is costly and time-consuming, creating a bottleneck in AI progress. This study investigates eye-tracking as a cost-effective technology to collect doctors' behavioral data for AI training with a focus on the pathology task of mitosis detection. One major challenge in using eye-gaze data is the low signal-to-noise ratio, which hinders the extraction of meaningful information. We tackled this by levering the properties of inter-observer eye-gaze consistencies and creating eye-gaze labels from consistent eye-fixations shared by a group of observers. Our study involved 14 non-medical participants, from whom we collected eye-gaze data and generated eye-gaze labels based on varying group sizes. We assessed the efficacy of such eye-gaze labels by training Convolutional Neural Networks (CNNs) and comparing their performance to those trained with ground truth annotations and a heuristic-based baseline. Results indicated that CNNs trained with our eye-gaze labels closely followed the performance of ground-truth-based CNNs, and significantly outperformed the baseline. Although primarily focused on mitosis, we envision that insights from this study can be generalized to other medical imaging tasks.
- Abstract(参考訳): 病理タスクにおける人工知能(AI)の拡張は、AI開発における医師のアノテーションの需要を増大させた。
しかし、医師から高品質なアノテーションを収集するのには費用がかかり、時間がかかるため、AIの進歩のボトルネックが生じる。
本研究は,眼球運動追跡をAIトレーニングのための医師の行動データを収集するための費用効率の高い技術として,有糸分裂検出の病的課題に着目したものである。
視線データを使用する際の大きな課題の1つは、意味のある情報の抽出を妨げる低信号対雑音比である。
我々は、観測者の群が共有する一貫した眼球固定から、サーバ間視線成分の特性を向上し、視線ラベルを作成することで、この問題に対処した。
本研究は,14名の非医学的参加者を対象に,眼球運動データと眼球運動ラベルを生成した。
我々は、CNN(Convolutional Neural Networks)を訓練し、それらの性能を、地上の真実の注釈とヒューリスティックベースのベースラインで訓練されたものと比較することにより、このような視線ラベルの有効性を評価した。
その結果,眼球運動ラベルを用いて訓練したCNNは,地中信頼度に基づくCNNのパフォーマンスにほぼ追随し,ベースラインを著しく上回った。
主に有糸分裂に焦点が当てられているが、この研究から得られた知見は、他の医療画像タスクに一般化できると考えている。
関連論文リスト
- Automated Retinal Image Analysis and Medical Report Generation through Deep Learning [3.4447129363520337]
網膜疾患の増加は、医療システムにとって大きな課題となっている。
網膜画像から医療報告を生成する従来の方法は、手動による解釈に依存している。
この論文は、網膜画像の医療レポート生成を自動化する人工知能の可能性について考察する。
論文 参考訳(メタデータ) (2024-08-14T07:47:25Z) - Focused State Recognition Using EEG with Eye Movement-Assisted Annotation [4.705434077981147]
脳波と眼球運動の特徴を学習するためのディープラーニングモデルは、脳活動の分類に有効である。
焦点を絞った状態は、タスクや思考に強い集中力を示し、焦点を絞らない状態は目の動きによって達成される。
論文 参考訳(メタデータ) (2024-06-15T14:06:00Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Involution Fused ConvNet for Classifying Eye-Tracking Patterns of
Children with Autism Spectrum Disorder [1.225920962851304]
自閉症スペクトラム障害(ASD)は、診断が難しい複雑な神経疾患である。多くの研究では、ASDと診断された子供が注意範囲を維持し、焦点を絞った視力の低下に苦しむことが示されている。
視線追跡技術は、視線異常が自閉症の診断的特徴として認識されて以来、ASDの文脈で特に注目を集めてきた。
論文 参考訳(メタデータ) (2024-01-07T20:08:17Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Eye-gaze-guided Vision Transformer for Rectifying Shortcut Learning [42.674679049746175]
我々は、深層ニューラルネットワークのトレーニングに、人間の専門家の知性とドメイン知識を注入することを提案する。
医用画像データに制限のある診断のための新しい視線誘導型視覚変換器(EG-ViT)を提案する。
論文 参考訳(メタデータ) (2022-05-25T03:29:10Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - A Histopathology Study Comparing Contrastive Semi-Supervised and Fully
Supervised Learning [0.0]
計算病理学におけるラベル付け負担を軽減するための自己教師型学習について検討する。
ImageNetの事前学習ネットワークは,Barlow Twinsを用いた自己教師型表現よりも優れていた。
論文 参考訳(メタデータ) (2021-11-10T19:04:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。