論文の概要: A Labeled Ophthalmic Ultrasound Dataset with Medical Report Generation Based on Cross-modal Deep Learning
- arxiv url: http://arxiv.org/abs/2407.18667v1
- Date: Fri, 26 Jul 2024 11:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 13:40:43.559149
- Title: A Labeled Ophthalmic Ultrasound Dataset with Medical Report Generation Based on Cross-modal Deep Learning
- Title(参考訳): クロスモーダル深層学習に基づく医療レポート作成のためのラベル付き眼科超音波データセット
- Authors: Jing Wang, Junyan Fan, Meng Zhou, Yanzhu Zhang, Mingyu Shi,
- Abstract要約: 本報告では,医療画像の正確な分析と自動探索のためのラベル付き眼科データセットと関連する報告について述べる。
中国・新陽市にある眼科病院で2,417人の患者から、超音波画像、血流情報、検査報告を含む3つのモーダルデータを収集している。
- 参考スコア(独自算出の注目度): 8.733721267033705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasound imaging reveals eye morphology and aids in diagnosing and treating eye diseases. However, interpreting diagnostic reports requires specialized physicians. We present a labeled ophthalmic dataset for the precise analysis and the automated exploration of medical images along with their associated reports. It collects three modal data, including the ultrasound images, blood flow information and examination reports from 2,417 patients at an ophthalmology hospital in Shenyang, China, during the year 2018, in which the patient information is de-identified for privacy protection. To the best of our knowledge, it is the only ophthalmic dataset that contains the three modal information simultaneously. It incrementally consists of 4,858 images with the corresponding free-text reports, which describe 15 typical imaging findings of intraocular diseases and the corresponding anatomical locations. Each image shows three kinds of blood flow indices at three specific arteries, i.e., nine parameter values to describe the spectral characteristics of blood flow distribution. The reports were written by ophthalmologists during the clinical care. The proposed dataset is applied to generate medical report based on the cross-modal deep learning model. The experimental results demonstrate that our dataset is suitable for training supervised models concerning cross-modal medical data.
- Abstract(参考訳): 超音波イメージングは、眼の形態と、眼疾患の診断と治療の助けを明らかにする。
しかし、診断報告の解釈には専門医が必要である。
本報告では,医療画像の正確な分析と自動探索のためのラベル付き眼科データセットと関連する報告について述べる。
2018年、中国の清陽市にある眼科病院の患者2,417名から超音波画像、血流情報、検査報告を含む3つのモーダルデータを収集し、患者の情報をプライバシー保護のために特定した。
我々の知る限りでは、3つのモーダル情報を同時に含む唯一の眼科的データセットである。
この画像は4,858枚の画像と対応する自由テキストのレポートからなり、眼内疾患の15の典型的な画像所見とそれに対応する解剖学的位置を記述している。
各画像は3つの特定の動脈における3種類の血流指標、すなわち、血流分布のスペクトル特性を記述するための9つのパラメータ値を示す。
報告は臨床治療中に眼科医によって書かれた。
提案したデータセットを用いて,クロスモーダル深層学習モデルに基づく医療報告を生成する。
実験の結果,本データセットはクロスモーダル医療データに関する教師付きモデルの訓練に適していることが示された。
関連論文リスト
- Integrating Medical Imaging and Clinical Reports Using Multimodal Deep Learning for Advanced Disease Analysis [3.8758525789991896]
医用画像や臨床報告からの異種情報を深く統合する,革新的なマルチモーダル深層学習モデルを提案する。
医用画像では、畳み込みニューラルネットワークを用いて高次元の特徴を抽出し、重要な視覚情報をキャプチャした。
臨床報告テキストでは,2方向の長期・短期記憶ネットワークと注意機構を組み合わせることで,深い意味理解を実現する。
論文 参考訳(メタデータ) (2024-05-23T02:22:10Z) - DeViDe: Faceted medical knowledge for improved medical vision-language pre-training [1.6567372257085946]
胸部X線に対する視覚言語による事前訓練は、主にペアのX線写真とラジオグラフィーレポートを活用することで大きな進歩を遂げた。
オープンウェブからの無線画像記述を利用するトランスフォーマーベースのDeViDeを提案する。
DeViDeは知識強化された視覚言語アライメントの3つの重要な特徴を取り入れている。
ゼロショット設定では、DeViDeは外部データセットの完全な教師付きモデルと互換性があり、3つの大規模データセットの最先端結果を達成する。
論文 参考訳(メタデータ) (2024-04-04T17:40:06Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - OLIVES Dataset: Ophthalmic Labels for Investigating Visual Eye Semantics [11.343658407664918]
本稿では,眼球運動(OLIVES)データセットを探索するための眼球運動ラベルについて紹介する。
これは、臨床ラベル、バイオマーカーラベル、疾患ラベル、時系列患者の治療情報を含む、OCTおよび近赤外ファンドの最初のデータセットである。
少なくとも2年間の平均96個の目のデータがあり、それぞれの目は平均66週と7回の注射で治療されている。
論文 参考訳(メタデータ) (2022-09-22T17:36:40Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z) - A Patient-Centric Dataset of Images and Metadata for Identifying
Melanomas Using Clinical Context [39.10946113351587]
2020 SIIM-ISIC メラノーマ分類データセットは、以前の課題と臨床実践の相違に対処するために構築された。
このデータセットは、3大陸の患者2,056人で、患者1人あたり平均16の病変がある。
論文 参考訳(メタデータ) (2020-08-07T20:22:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。