論文の概要: Guided Context Gating: Learning to leverage salient lesions in retinal fundus images
- arxiv url: http://arxiv.org/abs/2406.13126v1
- Date: Wed, 19 Jun 2024 00:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:48:36.333653
- Title: Guided Context Gating: Learning to leverage salient lesions in retinal fundus images
- Title(参考訳): ガイド付きコンテクストゲーティング:網膜基底画像におけるサルエント病変の活用の学習
- Authors: Teja Krishna Cherukuri, Nagur Shareef Shaik, Dong Hye Ye,
- Abstract要約: 本稿では,ガイド付きコンテキストゲーティングと呼ばれる新しいアテンション機構を提案する。
コンテキスト定式化、チャネル相関、ガイド付きゲーティングを統合して、グローバルコンテキスト、空間相関、局所的病変コンテキストを学ぶ。
ゼノド-DR-7データセットの実験では、高度な注意機構よりも精度が2.63%向上した。
- 参考スコア(独自算出の注目度): 1.8789068567093286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effectively representing medical images, especially retinal images, presents a considerable challenge due to variations in appearance, size, and contextual information of pathological signs called lesions. Precise discrimination of these lesions is crucial for diagnosing vision-threatening issues such as diabetic retinopathy. While visual attention-based neural networks have been introduced to learn spatial context and channel correlations from retinal images, they often fall short in capturing localized lesion context. Addressing this limitation, we propose a novel attention mechanism called Guided Context Gating, an unique approach that integrates Context Formulation, Channel Correlation, and Guided Gating to learn global context, spatial correlations, and localized lesion context. Our qualitative evaluation against existing attention mechanisms emphasize the superiority of Guided Context Gating in terms of explainability. Notably, experiments on the Zenodo-DR-7 dataset reveal a substantial 2.63% accuracy boost over advanced attention mechanisms & an impressive 6.53% improvement over the state-of-the-art Vision Transformer for assessing the severity grade of retinopathy, even with imbalanced and limited training samples for each class.
- Abstract(参考訳): 医用画像(特に網膜画像)を効果的に表現することは、病変と呼ばれる病理徴候の外観、大きさ、文脈的情報の変化によって大きな課題を呈する。
これらの病変の正確な識別は糖尿病網膜症などの視力障害の診断に不可欠である。
視覚的注意に基づくニューラルネットワークは網膜画像から空間的コンテキストとチャネル相関を学習するために導入されているが、局所的な病変コンテキストを捉えるには不十分であることが多い。
この制限に対処するため,グローバルなコンテキスト,空間的相関,局所的な病変コンテキストを学習するために,コンテキスト定式化,チャネル相関,ガイド付きゲーティングを統合するユニークなアプローチであるガイド付きコンテキストゲーティング(Guid Context Gating)を提案する。
既存の注意機構に対する質的評価は、説明可能性の観点から、ガイド付きコンテキストゲーティングの優位性を強調している。
特に、Zenodo-DR-7データセットの実験では、高度な注意機構よりも精度が2.63%向上し、各クラスで不均衡で限られたトレーニングサンプルであっても、網膜症の重症度を評価するための最先端のVision Transformerよりも6.53%改善されている。
関連論文リスト
- Disentangling representations of retinal images with generative models [12.547633373232026]
患者属性をカメラ効果から切り離す網膜基底画像の新しい集団モデルを提案する。
以上の結果から,網膜基底画像生成における患者属性と技術共同創設者との複雑な関係について,新たな視点が得られた。
論文 参考訳(メタデータ) (2024-02-29T14:11:08Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - PALM: Open Fundus Photograph Dataset with Pathologic Myopia Recognition
and Anatomical Structure Annotation [41.80715213373843]
病理組織学的ミオピア (PM) は、高盲人人口による一般的な筋性網膜変性症である。
本稿では,病理診断のためのオープン・ベース画像データセットPALMと解剖学的構造アノテーションについて考察する。
論文 参考訳(メタデータ) (2023-05-13T02:00:06Z) - Incremental Cross-Domain Adaptation for Robust Retinopathy Screening via
Bayesian Deep Learning [7.535751594024775]
網膜症は、タイムリーに治療されないと、深刻な視覚障害や失明を引き起こす網膜疾患のグループである。
本稿では, 深い分類モデルを用いて, 異常網膜病理を段階的に学習することのできる, 漸進的なクロスドメイン適応手法を提案する。
提案したフレームワークは、6つの公開データセットで評価され、全体的な精度とF1スコアをそれぞれ0.9826と0.9846で達成することで、最先端の競合他社を上回っている。
論文 参考訳(メタデータ) (2021-10-18T13:45:21Z) - Self-Supervised Domain Adaptation for Diabetic Retinopathy Grading using
Vessel Image Reconstruction [61.58601145792065]
我々は網膜血管画像再構成に基づく新しい自己教師型タスクを定義することで、不変なターゲットドメインの特徴を学習する。
私たちのアプローチは既存のドメイン戦略よりも優れています。
論文 参考訳(メタデータ) (2021-07-20T09:44:07Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Visualization for Histopathology Images using Graph Convolutional Neural
Networks [1.8939984161954087]
我々は、組織組織を核のグラフとしてモデル化するアプローチを採用し、疾患診断のためのグラフ畳み込みネットワークフレームワークを開発した。
我々は,浸潤性乳癌とin-situ性乳癌の鑑別を訓練し,Gleason 3, 4前立腺癌は解釈可能なビジュアルマップを生成する。
論文 参考訳(メタデータ) (2020-06-16T19:14:19Z) - Improving Robustness using Joint Attention Network For Detecting Retinal
Degeneration From Optical Coherence Tomography Images [0.0]
本稿では,2つのジョイントネットワークからなる新しいアーキテクチャとして,病原性特徴表現を用いることを提案する。
公開データセットに対する実験結果から,提案したジョイントネットワークは,未確認データセット上での最先端網膜疾患分類ネットワークの精度と堅牢性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-16T20:32:49Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。