論文の概要: OLIVES Dataset: Ophthalmic Labels for Investigating Visual Eye Semantics
- arxiv url: http://arxiv.org/abs/2209.11195v1
- Date: Thu, 22 Sep 2022 17:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 13:18:20.129801
- Title: OLIVES Dataset: Ophthalmic Labels for Investigating Visual Eye Semantics
- Title(参考訳): olives dataset:目のセマンティクスを調べるための眼科ラベル
- Authors: Mohit Prabhushankar, Kiran Kokilepersaud, Yash-yee Logan, Stephanie
Trejo Corona, Ghassan AlRegib, and Charles Wykoff
- Abstract要約: 本稿では,眼球運動(OLIVES)データセットを探索するための眼球運動ラベルについて紹介する。
これは、臨床ラベル、バイオマーカーラベル、疾患ラベル、時系列患者の治療情報を含む、OCTおよび近赤外ファンドの最初のデータセットである。
少なくとも2年間の平均96個の目のデータがあり、それぞれの目は平均66週と7回の注射で治療されている。
- 参考スコア(独自算出の注目度): 11.343658407664918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical diagnosis of the eye is performed over multifarious data modalities
including scalar clinical labels, vectorized biomarkers, two-dimensional fundus
images, and three-dimensional Optical Coherence Tomography (OCT) scans.
Clinical practitioners use all available data modalities for diagnosing and
treating eye diseases like Diabetic Retinopathy (DR) or Diabetic Macular Edema
(DME). Enabling usage of machine learning algorithms within the ophthalmic
medical domain requires research into the relationships and interactions
between all relevant data over a treatment period. Existing datasets are
limited in that they neither provide data nor consider the explicit
relationship modeling between the data modalities. In this paper, we introduce
the Ophthalmic Labels for Investigating Visual Eye Semantics (OLIVES) dataset
that addresses the above limitation. This is the first OCT and near-IR fundus
dataset that includes clinical labels, biomarker labels, disease labels, and
time-series patient treatment information from associated clinical trials. The
dataset consists of 1268 near-IR fundus images each with at least 49 OCT scans,
and 16 biomarkers, along with 4 clinical labels and a disease diagnosis of DR
or DME. In total, there are 96 eyes' data averaged over a period of at least
two years with each eye treated for an average of 66 weeks and 7 injections. We
benchmark the utility of OLIVES dataset for ophthalmic data as well as provide
benchmarks and concrete research directions for core and emerging machine
learning paradigms within medical image analysis.
- Abstract(参考訳): 眼球の臨床診断は、スカラー臨床ラベル、ベクトル化バイオマーカー、二次元眼底画像、三次元光コヒーレンス・トモグラフィー(OCT)スキャンなど多彩なデータモダリティを用いて行われる。
臨床医は、糖尿病網膜症(DR)や糖尿病黄斑浮腫(DME)などの眼疾患の診断と治療に利用可能なすべてのデータモダリティを使用する。
眼科領域における機械学習アルゴリズムの使用は、治療期間を通じて関連するすべてのデータ間の関係と相互作用を研究する必要がある。
既存のデータセットは、データの提供もデータモダリティ間の明示的な関係モデリングも考慮しないという点で制限されている。
本稿では,上記の制限に対処した視覚視覚セマンティクス(olives)データセットを調査するための眼科ラベルを紹介する。
これは、臨床ラベル、バイオマーカーラベル、疾患ラベル、および関連する臨床試験からの時系列患者の治療情報を含む、OCTおよび近赤外ファンドの最初のデータセットである。
データセットは、少なくとも49個のOCTスキャンを含む1268個の近赤外画像と16個のバイオマーカーと4つの臨床ラベルとDRまたはDMEの疾患診断からなる。
合計で96個の目のデータが少なくとも2年間の平均で、それぞれの目は平均66週と7回の注射で治療されている。
眼科学データのためのOLIVESデータセットの有用性をベンチマークし、医用画像解析におけるコアおよび新興機械学習パラダイムのベンチマークと具体的な研究指針を提供する。
関連論文リスト
- Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
本研究は,人工知能(AI)モデルを用いた医用合成データ生成の臨床評価に焦点を当てた。
本論文は,a) 医用専門家による合成画像の体系的評価のためのプロトコルを提示し,b) 高分解能WCE画像合成のための新しい変分オートエンコーダモデルであるTIDE-IIを評価する。
その結果、TIDE-IIは臨床的に関連性のあるWCE画像を生成し、データの不足に対処し、診断ツールの強化に役立つことがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - A Labeled Ophthalmic Ultrasound Dataset with Medical Report Generation Based on Cross-modal Deep Learning [8.733721267033705]
本報告では,医療画像の正確な分析と自動探索のためのラベル付き眼科データセットと関連する報告について述べる。
中国・新陽市にある眼科病院で2,417人の患者から、超音波画像、血流情報、検査報告を含む3つのモーダルデータを収集している。
論文 参考訳(メタデータ) (2024-07-26T11:03:18Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - OCTDL: Optical Coherence Tomography Dataset for Image-Based Deep Learning Methods [34.13887472397715]
本研究は,2000枚以上の OCT 画像からなるオープンアクセス型 OCT データセット (OCTDL) を提案する。
このデータセットは、加齢関連黄斑変性症(AMD)、糖尿病黄斑浮腫(DME)、網膜膜(ERM)、網膜動脈閉塞症(RAO)、網膜静脈閉塞症(RVO)、およびVID(Vitreomacular Interface Disease)患者のOCT記録からなる。
論文 参考訳(メタデータ) (2023-12-13T16:18:40Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Clinically Labeled Contrastive Learning for OCT Biomarker Classification [12.633032175875865]
本稿では,臨床データから抽出可能なラベルに基づく医用画像のコントラスト学習手法を提案する。
バイオマーカーラベルを使わずに,臨床データを擬似ラベルとして利用することで,この関係を活用できる。
バイオマーカー検出AUROCでは,最大5%の性能向上が見られた。
論文 参考訳(メタデータ) (2023-05-24T13:51:48Z) - Clinical Contrastive Learning for Biomarker Detection [15.510581400494207]
臨床とバイオマーカーデータの関係を利用して,バイオマーカー分類の性能を向上する。
これは、バイオマーカーラベルを使わずに、大量の臨床データを擬似ラベルとして活用することで達成される。
本手法は, バイオマーカー検出の精度を最大5%向上させることで, 自己監督手法の精度を最大で5%向上させることを示した。
論文 参考訳(メタデータ) (2022-11-09T18:29:56Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。