論文の概要: GLEAM: A Multimodal Imaging Dataset and HAMM for Glaucoma Classification
- arxiv url: http://arxiv.org/abs/2603.12800v1
- Date: Fri, 13 Mar 2026 09:02:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.00905
- Title: GLEAM: A Multimodal Imaging Dataset and HAMM for Glaucoma Classification
- Title(参考訳): GLEAM:緑内障分類のためのマルチモーダルイメージングデータセットとHAMM
- Authors: Jiao Wang, Chi Liu, Yiying Zhang, Hongchen Luo, Zhifen Guo, Ying Hu, Ke Xu, Jing Zhou, Hongyan Xu, Ruiting Zhou, Man Tang,
- Abstract要約: マルチモーダルイメージング(GLEAM)による緑内障病変の評価と解析を提案する。
初めて公開された3-modal glaucomaデータセットは、レーザー眼科眼底画像、乳頭周囲CT画像、および4つの病期を付加した視野パターンの偏差マップを含む。
我々のフレームワークは階層型注意エンコーダと光デコーダを使用して、エンコーダにクロスモーダル表現学習を集中させる。
- 参考スコア(独自算出の注目度): 33.416050820230716
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose glaucoma lesion evaluation and analysis with multimodal imaging (GLEAM), the first publicly available tri-modal glaucoma dataset comprising scanning laser ophthalmoscopy fundus images, circumpapillary OCT images, and visual field pattern deviation maps, annotated with four disease stages, enabling effective exploitation of multimodal complementary information and facilitating accurate diagnosis and treatment across disease stages. To effectively integrate cross-modal information, we propose hierarchical attentive masked modeling (HAMM) for multimodal glaucoma classification. Our framework employs hierarchical attentive encoders and light decoders to focus cross-modal representation learning on the encoder.
- Abstract(参考訳): 本報告では, マルチモーダル画像(GLEAM)による緑内障病変の評価と解析を行い, 走査型レーザー眼鏡眼底画像, 乳頭周囲CT画像, および視野パターンの偏差マップを用いて, 複数モーダル補完情報を効果的に活用し, 病期間での正確な診断と治療を容易にする。
マルチモーダル緑内障分類のための階層型注意マスクモデリング(HAMM)を提案する。
本フレームワークでは,階層型注意エンコーダと光デコーダを用いて,クロスモーダル表現学習をエンコーダにフォーカスする。
関連論文リスト
- MicarVLMoE: A Modern Gated Cross-Aligned Vision-Language Mixture of Experts Model for Medical Image Captioning and Report Generation [4.760537994346813]
医用画像報告は、放射線画像から構造化された臨床記述を生成することを目的としている。
そこで我々は, ゲート型クロスアライメント融合モデルであるMicarVLMoEを提案する。
我々は、MIRをCTスキャン、網膜イメージング、MRIスキャン、Grog pathology imageに拡張し、最先端の結果を報告する。
論文 参考訳(メタデータ) (2025-04-29T01:26:02Z) - EyecareGPT: Boosting Comprehensive Ophthalmology Understanding with Tailored Dataset, Benchmark and Model [51.66031028717933]
Med-LVLM(Med-LVLM)は、医療において重要な可能性を示す。
現在、知的眼科診断は、(i)データ、(ii)ベンチマーク、(iii)モデルという3つの大きな課題に直面している。
我々は、前述の3つの課題に対処するEyecare Kitを提案する。
論文 参考訳(メタデータ) (2025-04-18T12:09:15Z) - ViKL: A Mammography Interpretation Framework via Multimodal Aggregation of Visual-knowledge-linguistic Features [54.37042005469384]
MVKLは,マルチビュー画像,詳細な表示,報告を含む最初のマルチモーダルマンモグラフィーデータセットである。
このデータセットに基づいて、教師なし事前学習のチャラリングタスクに焦点を当てる。
視覚,知識,言語機能を相乗化するフレームワークであるViKLを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:01:23Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Leveraging Multimodal Fusion for Enhanced Diagnosis of Multiple Retinal
Diseases in Ultra-wide OCTA [4.741967726600469]
我々は、最初のマルチモーダル、マルチディスリーズ、そして最も広い視野のUW-OCTAデータセットである、先駆的なM3 OCTAデータセットをキュレートした。
複数の疾患の診断にマルチモーダル情報を活用する初めてのクロスモーダル融合フレームワークを提案する。
M3 OCTAデータセットの構築は、眼科画像分析コミュニティにおける研究を進めることを目的としている。
論文 参考訳(メタデータ) (2023-11-17T05:23:57Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Multimodal Information Fusion for Glaucoma and DR Classification [1.5616442980374279]
複数の情報源からの情報を組み合わせることで、臨床医はより正確な判断をすることができる。
本稿では,網膜解析の課題を解決するために,ディープラーニングに基づく3つのマルチモーダル情報融合戦略について検討する。
論文 参考訳(メタデータ) (2022-09-02T12:19:03Z) - COROLLA: An Efficient Multi-Modality Fusion Framework with Supervised
Contrastive Learning for Glaucoma Grading [1.2250035750661867]
緑内障の診断に有効な多モード教師付きコントラスト学習フレームワークであるCOROLLAを提案する。
教師付きコントラスト学習を用いて、より良い収束性でモデルの識別能力を高めます。
GAMMAデータセットでは,我々のCOROLLAフレームワークは最先端の手法と比較して圧倒的な緑内障グレーディング性能を達成している。
論文 参考訳(メタデータ) (2022-01-11T06:00:51Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。