論文の概要: Eye tracking guided deep multiple instance learning with dual
cross-attention for fundus disease detection
- arxiv url: http://arxiv.org/abs/2304.12719v1
- Date: Tue, 25 Apr 2023 11:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 21:02:55.125455
- Title: Eye tracking guided deep multiple instance learning with dual
cross-attention for fundus disease detection
- Title(参考訳): dual cross-attention を用いた眼球追跡誘導型深層複数インスタンス学習による眼底疾患検出
- Authors: Hongyang Jiang, Jingqi Huang, Chen Tang, Xiaoqing Zhang, Mengdi Gao,
Jiang Liu
- Abstract要約: 眼科医の視線追跡情報を利用したHuman-in-the-loop (HITL) CADシステムを提案する。
The HITL CAD system was implemented on the multiple instance learning (MIL)。
厳密な実験により, HITL CAD システムの実現可能性と提案した DCAMIL の優位性を実証した。
- 参考スコア(独自算出の注目度): 10.801928878540158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have promoted the development of computer aided
diagnosis (CAD) systems for fundus diseases, helping ophthalmologists reduce
missed diagnosis and misdiagnosis rate. However, the majority of CAD systems
are data-driven but lack of medical prior knowledge which can be
performance-friendly. In this regard, we innovatively proposed a
human-in-the-loop (HITL) CAD system by leveraging ophthalmologists'
eye-tracking information, which is more efficient and accurate. Concretely, the
HITL CAD system was implemented on the multiple instance learning (MIL), where
eye-tracking gaze maps were beneficial to cherry-pick diagnosis-related
instances. Furthermore, the dual-cross-attention MIL (DCAMIL) network was
utilized to curb the adverse effects of noisy instances. Meanwhile, both
sequence augmentation module and domain adversarial module were introduced to
enrich and standardize instances in the training bag, respectively, thereby
enhancing the robustness of our method. We conduct comparative experiments on
our newly constructed datasets (namely, AMD-Gaze and DR-Gaze), respectively for
the AMD and early DR detection. Rigorous experiments demonstrate the
feasibility of our HITL CAD system and the superiority of the proposed DCAMIL,
fully exploring the ophthalmologists' eye-tracking information. These
investigations indicate that physicians' gaze maps, as medical prior knowledge,
is potential to contribute to the CAD systems of clinical diseases.
- Abstract(参考訳): 深層ニューラルネットワーク(dnns)は,眼科医の診断ミスや誤診率の軽減を支援するため,眼底疾患のコンピュータ支援診断(cad)システムの開発を促進する。
しかし、CADシステムの大部分はデータ駆動であるが、パフォーマンスに優しい医学的事前知識が不足している。
そこで本稿では,眼科医の視線追跡情報を利用したHuman-in-the-loop (HITL) CADシステムを提案する。
具体的には,視線追跡による視線マップがチェリーピックの診断関連事例に有用であったマルチ・インスタンス・ラーニング(MIL)に基づいてHITL CADシステムを実装した。
さらに, 二重クロスアテンションMIL (DCAMIL) ネットワークを用いて, ノイズの抑制効果について検討した。
一方, トレーニングバッグのインスタンスを充実・標準化するために, シーケンス拡張モジュールとドメイン逆数モジュールの両方を導入し, 本手法の堅牢性を高めた。
我々は,新たに構築したデータセット(amd-gazeとdr-gaze)について,それぞれamdと早期dr検出のための比較実験を行った。
眼科医の視線追跡情報を完全に探索し, HITL CADシステムの実現可能性と提案したDCAMILの優位性を実証した。
これらの調査から,医学的先行知識として医師の視線マップが臨床疾患のCADシステムに寄与する可能性が示唆された。
関連論文リスト
- Detection and Classification of Diabetic Retinopathy using Deep Learning
Algorithms for Segmentation to Facilitate Referral Recommendation for Test
and Treatment Prediction [0.0]
本研究は糖尿病網膜症(DR)の臨床的課題について考察する。
提案手法は、畳み込みニューラルネットワーク(CNN)を用いたトランスファーラーニングを利用して、単一の基礎写真を用いた自動DR検出を行う。
Jaccard、F1、リコール、精度、精度の高評価スコアは、網膜病理評価における診断能力を高めるモデルの可能性を示している。
論文 参考訳(メタデータ) (2024-01-05T11:19:24Z) - Polar-Net: A Clinical-Friendly Model for Alzheimer's Disease Detection
in OCTA Images [53.235117594102675]
オプティカルコヒーレンス・トモグラフィーは、網膜微小血管の画像化によってアルツハイマー病(AD)を検出するための有望なツールである。
我々はPolar-Netと呼ばれる新しいディープラーニングフレームワークを提案し、解釈可能な結果を提供し、臨床上の事前知識を活用する。
Polar-Netは既存の最先端の手法よりも優れており,網膜血管変化とADとの関連性について,より貴重な病理学的証拠を提供する。
論文 参考訳(メタデータ) (2023-11-10T11:49:49Z) - A Deep Learning Approach for the Segmentation of Electroencephalography
Data in Eye Tracking Applications [56.458448869572294]
脳波データの時系列セグメンテーションのための新しいフレームワークDETRtimeを紹介する。
エンドツーエンドのディープラーニングベースのフレームワークは、コンピュータビジョンの進歩を前面に立たせています。
我々のモデルは脳波睡眠ステージセグメンテーションのタスクにおいてよく一般化される。
論文 参考訳(メタデータ) (2022-06-17T10:17:24Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Follow My Eye: Using Gaze to Supervise Computer-Aided Diagnosis [54.60796004113496]
医用画像を読む放射線科医の眼球運動は,DNNベースのコンピュータ支援診断システム(CAD)を訓練するための新たな指導形態であることが実証された。
画像を読んでいるときに、放射線科医の視線を記録します。
視線情報は処理され、アテンション一貫性モジュールを介してDNNの注意を監督するために使用される。
論文 参考訳(メタデータ) (2022-04-06T08:31:05Z) - ROCT-Net: A new ensemble deep convolutional model with improved spatial
resolution learning for detecting common diseases from retinal OCT images [0.0]
本稿では,OCT画像から網膜疾患を検出するために,新たな深層アンサンブル畳み込みニューラルネットワークを提案する。
本モデルは,2つの頑健な畳み込みモデルの学習アーキテクチャを用いて,リッチかつマルチレゾリューションな特徴を生成する。
2つのデータセットに関する実験と、他のよく知られた深層畳み込みニューラルネットワークとの比較により、アーキテクチャが分類精度を最大5%向上できることが証明された。
論文 参考訳(メタデータ) (2022-03-03T17:51:01Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Diabetic Retinopathy Grading System Based on Transfer Learning [0.0]
本稿では,マルチラベル分類によるフルベースdlcadシステムを提案する。
提案システムは精度(ACC)が86%、Dice類似度係数(DSC)が78.45である。
論文 参考訳(メタデータ) (2020-12-23T07:02:36Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z) - Multimodal Feature Fusion and Knowledge-Driven Learning via Experts
Consult for Thyroid Nodule Classification [11.160089265436689]
コンピュータ支援診断(CAD)は、複数の分野にまたがる臨床医を支援するための重要なアプローチになりつつある。
本研究では,新しいエンド・ツー・エンドの知識駆動型分類フレームワークを提案する。
提案システムは,高度に連結された畳み込みネットワーク(DenseNet)の学習フェーズを案内するために,専門家のアンサンブルによって提供される手がかりを利用する。
論文 参考訳(メタデータ) (2020-05-28T16:12:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。