論文の概要: I-ODA, Real-World Multi-modal Longitudinal Data for
OphthalmicApplications
- arxiv url: http://arxiv.org/abs/2104.02609v1
- Date: Tue, 30 Mar 2021 00:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 03:12:52.220001
- Title: I-ODA, Real-World Multi-modal Longitudinal Data for
OphthalmicApplications
- Title(参考訳): 眼科応用のための実世界マルチモーダル縦断データI-ODA
- Authors: Nooshin Mojab, Vahid Noroozi, Abdullah Aleem, Manoj P. Nallabothula,
Joseph Baker, Dimitri T. Azar, Mark Rosenblatt, RV Paul Chan, Darvin Yi,
Philip S. Yu, Joelle A. Hallak
- Abstract要約: 我々は,イリノイ眼科データベース・アトラス(I-ODA)という新しい縦型眼科画像データセットを提示する。
I-ODAには12の画像モダリティが含まれており、合計で3,668,649個の眼科像が12年間で33,876個の個人で構成されている。
- 参考スコア(独自算出の注目度): 37.09311225586432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data from clinical real-world settings is characterized by variability in
quality, machine-type, setting, and source. One of the primary goals of medical
computer vision is to develop and validate artificial intelligence (AI) based
algorithms on real-world data enabling clinical translations. However, despite
the exponential growth in AI based applications in healthcare, specifically in
ophthalmology, translations to clinical settings remain challenging. Limited
access to adequate and diverse real-world data inhibits the development and
validation of translatable algorithms. In this paper, we present a new
multi-modal longitudinal ophthalmic imaging dataset, the Illinois Ophthalmic
Database Atlas (I-ODA), with the goal of advancing state-of-the-art computer
vision applications in ophthalmology, and improving upon the translatable
capacity of AI based applications across different clinical settings. We
present the infrastructure employed to collect, annotate, and anonymize images
from multiple sources, demonstrating the complexity of real-world retrospective
data and its limitations. I-ODA includes 12 imaging modalities with a total of
3,668,649 ophthalmic images of 33,876 individuals from the Department of
Ophthalmology and Visual Sciences at the Illinois Eye and Ear Infirmary of the
University of Illinois Chicago (UIC) over the course of 12 years.
- Abstract(参考訳): 臨床現実世界の設定から得られるデータは、品質、マシンタイプ、設定、ソースのばらつきによって特徴づけられる。
医療コンピュータビジョンの主な目的の1つは、臨床翻訳を可能にする実世界のデータに基づいて人工知能(AI)ベースのアルゴリズムを開発し、検証することである。
しかし、医療、特に眼科におけるAIベースのアプリケーションの増加にもかかわらず、臨床現場への翻訳は依然として困難である。
適切な多様な実世界のデータへの限られたアクセスは、翻訳可能なアルゴリズムの開発と検証を阻害する。
本稿では,眼科領域における最先端コンピュータビジョンの進歩と,異なる臨床領域におけるAIベースのアプリケーションの翻訳能力の向上を目的として,新しい多モード長手眼画像データセットであるイリノイ眼科データベースアトラス(I-ODA)を提案する。
本稿では,複数のソースから画像の収集,注釈,匿名化を行うためのインフラを提示し,実世界の振り返りデータの複雑さとその限界を実証する。
I-ODAには12の画像モダリティが含まれており、12年間にイリノイ大学シカゴ校眼科学科の33,876人の眼科医の合計3,668,649枚の眼科画像が含まれている。
関連論文リスト
- From large language models to multimodal AI: A scoping review on the potential of generative AI in medicine [40.23383597339471]
マルチモーダルAIは、イメージング、テキスト、構造化データを含む多様なデータモダリティを単一のモデルに統合することができる。
このスコーピングレビューは、マルチモーダルAIの進化を探求し、その方法、アプリケーション、データセット、臨床環境での評価を強調している。
診断支援,医療報告生成,薬物発見,会話型AIの革新を推進し,一過性のアプローチからマルチモーダルアプローチへのシフトを示唆した。
論文 参考訳(メタデータ) (2025-02-13T11:57:51Z) - BIOMEDICA: An Open Biomedical Image-Caption Archive, Dataset, and Vision-Language Models Derived from Scientific Literature [73.39593644054865]
BIOMEDICAはスケーラブルでオープンソースのフレームワークで、PubMed Central Open Accessサブセット全体を抽出、注釈付け、シリアライズして、使いやすく、公開可能なデータセットにする。
われわれのフレームワークは600万以上の記事から2400万以上のユニークな画像テキストペアで包括的なアーカイブを生成する。
BMCA-CLIPは、ストリーミングを通じてBIOMEDICAデータセット上で継続的に事前トレーニングされたCLIPスタイルのモデルのスイートで、27TBのデータをローカルにダウンロードする必要がなくなる。
論文 参考訳(メタデータ) (2025-01-13T09:58:03Z) - A Survey of Medical Vision-and-Language Applications and Their Techniques [48.268198631277315]
医療ビジョン・アンド・ランゲージモデル(MVLM)は、複雑な医療データを解釈するための自然言語インタフェースを提供する能力から、大きな関心を集めている。
本稿では,MVLMの概要と適用した各種医療課題について概観する。
また、これらのタスクに使用するデータセットについても検討し、標準化された評価指標に基づいて異なるモデルの性能を比較した。
論文 参考訳(メタデータ) (2024-11-19T03:27:05Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - AliFuse: Aligning and Fusing Multi-modal Medical Data for Computer-Aided Diagnosis [1.64647940449869]
マルチモーダル医療データの整合と融合のためのトランスフォーマーベースのフレームワークであるAlifuseを提案する。
医用画像と非構造化および構造化された臨床記録を視覚と言語トークンに変換する。
Alifuseを使ってアルツハイマー病を分類し、5つのパブリックデータセットで最先端のパフォーマンスを達成し、8つのベースラインを上回ります。
論文 参考訳(メタデータ) (2024-01-02T07:28:21Z) - VisionFM: a Multi-Modal Multi-Task Vision Foundation Model for
Generalist Ophthalmic Artificial Intelligence [27.92420837559191]
VisionFMは560,457人の眼科画像340万枚を事前訓練した基礎モデルである。
事前トレーニングの後、VisionFMは複数の眼科人工知能(AI)応用を育成する基盤を提供する。
VisionFMの一般知能は、12の一般的な眼科疾患を共同診断する際に、基礎的および中間的なレベルの眼科医より優れていた。
論文 参考訳(メタデータ) (2023-10-08T03:40:14Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - DRAC: Diabetic Retinopathy Analysis Challenge with Ultra-Wide Optical
Coherence Tomography Angiography Images [51.27125547308154]
第25回医用画像コンピューティング・コンピュータ支援介入国際会議(MICCAI 2022)にともなうDRAC糖尿病網膜症解析チャレンジの企画を行った。
この課題は、DR病変の分節化、画像品質評価、DRグレーディングの3つのタスクから構成される。
本稿では,課題の各課題について,トップパフォーマンスのソリューションと結果の要約と分析を行う。
論文 参考訳(メタデータ) (2023-04-05T12:04:55Z) - Medical Imaging and Machine Learning [16.240472115235253]
2018年に国立衛生研究所は、医療画像における人工知能の未来における重要な焦点領域を特定した。
データ可用性、新しいコンピューティングアーキテクチャと説明可能なAIアルゴリズムの必要性は、いまだに関係している。
本稿では,高次元臨床画像データに特有の課題について考察するとともに,技術的・倫理的考察を紹介する。
論文 参考訳(メタデータ) (2021-03-02T18:53:39Z) - Real-World Multi-Domain Data Applications for Generalizations to
Clinical Settings [1.508558791031741]
ディープラーニングモデルは、臨床試験のような人工的な設定から標準化されたデータセットでトレーニングされた場合、うまく機能する。
マルチドメイン実世界のデータセットに転送学習を用いた自己教師型アプローチを用いることで、標準化されたデータセットに対して16%の相対的改善が達成できることを示す。
論文 参考訳(メタデータ) (2020-07-24T17:41:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。