論文の概要: I-ODA, Real-World Multi-modal Longitudinal Data for
OphthalmicApplications
- arxiv url: http://arxiv.org/abs/2104.02609v1
- Date: Tue, 30 Mar 2021 00:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 03:12:52.220001
- Title: I-ODA, Real-World Multi-modal Longitudinal Data for
OphthalmicApplications
- Title(参考訳): 眼科応用のための実世界マルチモーダル縦断データI-ODA
- Authors: Nooshin Mojab, Vahid Noroozi, Abdullah Aleem, Manoj P. Nallabothula,
Joseph Baker, Dimitri T. Azar, Mark Rosenblatt, RV Paul Chan, Darvin Yi,
Philip S. Yu, Joelle A. Hallak
- Abstract要約: 我々は,イリノイ眼科データベース・アトラス(I-ODA)という新しい縦型眼科画像データセットを提示する。
I-ODAには12の画像モダリティが含まれており、合計で3,668,649個の眼科像が12年間で33,876個の個人で構成されている。
- 参考スコア(独自算出の注目度): 37.09311225586432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data from clinical real-world settings is characterized by variability in
quality, machine-type, setting, and source. One of the primary goals of medical
computer vision is to develop and validate artificial intelligence (AI) based
algorithms on real-world data enabling clinical translations. However, despite
the exponential growth in AI based applications in healthcare, specifically in
ophthalmology, translations to clinical settings remain challenging. Limited
access to adequate and diverse real-world data inhibits the development and
validation of translatable algorithms. In this paper, we present a new
multi-modal longitudinal ophthalmic imaging dataset, the Illinois Ophthalmic
Database Atlas (I-ODA), with the goal of advancing state-of-the-art computer
vision applications in ophthalmology, and improving upon the translatable
capacity of AI based applications across different clinical settings. We
present the infrastructure employed to collect, annotate, and anonymize images
from multiple sources, demonstrating the complexity of real-world retrospective
data and its limitations. I-ODA includes 12 imaging modalities with a total of
3,668,649 ophthalmic images of 33,876 individuals from the Department of
Ophthalmology and Visual Sciences at the Illinois Eye and Ear Infirmary of the
University of Illinois Chicago (UIC) over the course of 12 years.
- Abstract(参考訳): 臨床現実世界の設定から得られるデータは、品質、マシンタイプ、設定、ソースのばらつきによって特徴づけられる。
医療コンピュータビジョンの主な目的の1つは、臨床翻訳を可能にする実世界のデータに基づいて人工知能(AI)ベースのアルゴリズムを開発し、検証することである。
しかし、医療、特に眼科におけるAIベースのアプリケーションの増加にもかかわらず、臨床現場への翻訳は依然として困難である。
適切な多様な実世界のデータへの限られたアクセスは、翻訳可能なアルゴリズムの開発と検証を阻害する。
本稿では,眼科領域における最先端コンピュータビジョンの進歩と,異なる臨床領域におけるAIベースのアプリケーションの翻訳能力の向上を目的として,新しい多モード長手眼画像データセットであるイリノイ眼科データベースアトラス(I-ODA)を提案する。
本稿では,複数のソースから画像の収集,注釈,匿名化を行うためのインフラを提示し,実世界の振り返りデータの複雑さとその限界を実証する。
I-ODAには12の画像モダリティが含まれており、12年間にイリノイ大学シカゴ校眼科学科の33,876人の眼科医の合計3,668,649枚の眼科画像が含まれている。
関連論文リスト
- A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Expert-level vision-language foundation model for real-world radiology and comprehensive evaluation [27.05259342502574]
本稿では,放射線学に適した視覚言語基盤モデルRadFoundを紹介する。
8100万枚以上の画像と25万枚の画像テキストのペアからなる、最も広範なデータセットでトレーニングされている。
専門家レベルのマルチモーダル認識と生成能力を確立するために、RadFoundは拡張された視覚エンコーダを導入した。
論文 参考訳(メタデータ) (2024-09-24T15:31:49Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - AliFuse: Aligning and Fusing Multi-modal Medical Data for Computer-Aided
Diagnosis [1.9450973046619378]
マルチモーダル医療データの整合と融合のためのトランスフォーマーベースのフレームワークであるAlifuseを提案する。
我々はAlifuseを用いてアルツハイマー病を分類し、5つのパブリックデータセット上で最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2024-01-02T07:28:21Z) - VisionFM: a Multi-Modal Multi-Task Vision Foundation Model for
Generalist Ophthalmic Artificial Intelligence [27.92420837559191]
VisionFMは560,457人の眼科画像340万枚を事前訓練した基礎モデルである。
事前トレーニングの後、VisionFMは複数の眼科人工知能(AI)応用を育成する基盤を提供する。
VisionFMの一般知能は、12の一般的な眼科疾患を共同診断する際に、基礎的および中間的なレベルの眼科医より優れていた。
論文 参考訳(メタデータ) (2023-10-08T03:40:14Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - DRAC: Diabetic Retinopathy Analysis Challenge with Ultra-Wide Optical
Coherence Tomography Angiography Images [51.27125547308154]
第25回医用画像コンピューティング・コンピュータ支援介入国際会議(MICCAI 2022)にともなうDRAC糖尿病網膜症解析チャレンジの企画を行った。
この課題は、DR病変の分節化、画像品質評価、DRグレーディングの3つのタスクから構成される。
本稿では,課題の各課題について,トップパフォーマンスのソリューションと結果の要約と分析を行う。
論文 参考訳(メタデータ) (2023-04-05T12:04:55Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Medical Imaging and Machine Learning [16.240472115235253]
2018年に国立衛生研究所は、医療画像における人工知能の未来における重要な焦点領域を特定した。
データ可用性、新しいコンピューティングアーキテクチャと説明可能なAIアルゴリズムの必要性は、いまだに関係している。
本稿では,高次元臨床画像データに特有の課題について考察するとともに,技術的・倫理的考察を紹介する。
論文 参考訳(メタデータ) (2021-03-02T18:53:39Z) - Real-World Multi-Domain Data Applications for Generalizations to
Clinical Settings [1.508558791031741]
ディープラーニングモデルは、臨床試験のような人工的な設定から標準化されたデータセットでトレーニングされた場合、うまく機能する。
マルチドメイン実世界のデータセットに転送学習を用いた自己教師型アプローチを用いることで、標準化されたデータセットに対して16%の相対的改善が達成できることを示す。
論文 参考訳(メタデータ) (2020-07-24T17:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。