論文の概要: Creation and Validation of a Chest X-Ray Dataset with Eye-tracking and
Report Dictation for AI Development
- arxiv url: http://arxiv.org/abs/2009.07386v3
- Date: Thu, 8 Oct 2020 05:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:35:18.461508
- Title: Creation and Validation of a Chest X-Ray Dataset with Eye-tracking and
Report Dictation for AI Development
- Title(参考訳): 視線追跡による胸部X線データセットの作成と検証とAI開発のためのレポートディクテーション
- Authors: Alexandros Karargyris, Satyananda Kashyap, Ismini Lourentzou, Joy Wu,
Arjun Sharma, Matthew Tong, Shafiq Abedin, David Beymer, Vandana Mukherjee,
Elizabeth A Krupinski, Mehdi Moradi
- Abstract要約: 我々は、人工知能の研究者を支援するために、チェストX線(CXR)画像の豊富なデータセットを開発した。
データはアイトラッキングシステムを用いて収集され、放射線学者は1,083 CXR画像でレビューし報告した。
- 参考スコア(独自算出の注目度): 47.1152650685625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We developed a rich dataset of Chest X-Ray (CXR) images to assist
investigators in artificial intelligence. The data were collected using an eye
tracking system while a radiologist reviewed and reported on 1,083 CXR images.
The dataset contains the following aligned data: CXR image, transcribed
radiology report text, radiologist's dictation audio and eye gaze coordinates
data. We hope this dataset can contribute to various areas of research
particularly towards explainable and multimodal deep learning / machine
learning methods. Furthermore, investigators in disease classification and
localization, automated radiology report generation, and human-machine
interaction can benefit from these data. We report deep learning experiments
that utilize the attention maps produced by eye gaze dataset to show the
potential utility of this data.
- Abstract(参考訳): 我々は,人工知能研究者を支援するために,胸部x線画像の豊富なデータセットを開発した。
データはアイトラッキングシステムを用いて収集され、放射線学者は1,083 CXR画像でレビューし報告した。
データセットには以下のアライメントデータが含まれている: cxr画像、transcribed radiology report text、radioologist's dictation audio、eye gaze coordinates data。
このデータセットが、特に説明可能でマルチモーダルなディープラーニング/機械学習手法に関するさまざまな研究に寄与できることを願っています。
さらに, 疾患分類, 局所化, 自動放射線診断レポート生成, 人と機械の相互作用の研究者はこれらのデータから恩恵を受けることができる。
本稿では,視線データセットが生み出す注目マップを用いて,このデータの有用性を示す深層学習実験について報告する。
関連論文リスト
- Multimodal Learning and Cognitive Processes in Radiology: MedGaze for Chest X-ray Scanpath Prediction [10.388541520456714]
提案システムは,放射線学報告やCXR画像から視線シーケンスを予測することを目的としている。
本モデルでは, 医用スキャンパス予測において重要な固定座標と期間を予測し, コンピュータビジョンコミュニティにおける既存モデルよりも優れていた。
放射線学者の評価に基づいて、MedGazeは関連する領域に焦点をあてたヒトのような視線配列を生成することができる。
論文 参考訳(メタデータ) (2024-06-28T06:38:58Z) - Shadow and Light: Digitally Reconstructed Radiographs for Disease Classification [8.192975020366777]
DRR-RATEは、21,304人のユニークな患者から50,188個の前方デジタル再構成ラジオグラフィー(DRR)から構成される。
各画像は、対応する放射線学テキストレポートと18の病理学クラスのためのバイナリラベルとがペアリングされる。
我々は,既存の大規模胸部X線リソース,特にCheXpertデータセットとCheXnetモデルと併用して,DRR-RATEの適用性を示す。
論文 参考訳(メタデータ) (2024-06-06T02:19:18Z) - RaDialog: A Large Vision-Language Model for Radiology Report Generation
and Conversational Assistance [53.20640629352422]
会話型AIツールは、所定の医療画像に対して臨床的に正しい放射線学レポートを生成し、議論することができる。
RaDialogは、ラジオロジーレポート生成と対話ダイアログのための、初めて徹底的に評価され、公開された大きな視覚言語モデルである。
本手法は,報告生成における最先端の臨床的正確性を実現し,報告の修正や質問への回答などのインタラクティブなタスクにおいて,印象的な能力を示す。
論文 参考訳(メタデータ) (2023-11-30T16:28:40Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Using Multi-modal Data for Improving Generalizability and Explainability
of Disease Classification in Radiology [0.0]
従来の放射線診断用データセットは、放射線診断報告と並行して放射線画像のみを提供する傾向にある。
本稿では、最近発表されたEye-Gazeデータセットを用いて、ディープラーニング(DL)分類の性能と説明可能性への影響を徹底的に研究する。
X線画像の最良の分類性能は, 自由テキスト画像と無線画像との組み合わせで達成され, 視線データによる性能向上は得られなかった。
論文 参考訳(メタデータ) (2022-07-29T16:49:05Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - RadGraph: Extracting Clinical Entities and Relations from Radiology
Reports [6.419031003699479]
RadGraphは、フルテキストの胸部X線診断レポートにおけるエンティティと関係のデータセットである。
我々のデータセットは、胸部X線写真にリンクした際のコンピュータビジョンやマルチモーダル学習と同様に、医療自然言語処理の幅広い研究を促進することができる。
論文 参考訳(メタデータ) (2021-06-28T08:24:23Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。