論文の概要: Chest ImaGenome Dataset for Clinical Reasoning
- arxiv url: http://arxiv.org/abs/2108.00316v1
- Date: Sat, 31 Jul 2021 20:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:42:54.303169
- Title: Chest ImaGenome Dataset for Clinical Reasoning
- Title(参考訳): クリニカル推論のための胸部ImaGenomeデータセット
- Authors: Joy T. Wu, Nkechinyere N. Agu, Ismini Lourentzou, Arjun Sharma, Joseph
A. Paguio, Jasper S. Yao, Edward C. Dee, William Mitchell, Satyananda
Kashyap, Andrea Giovannini, Leo A. Celi, Mehdi Moradi
- Abstract要約: シーングラフデータ構造を持つChest ImaGenomeデータセットを初めて提供し、242,072$の画像を記述した。
ローカルアノテーションは、ジョイントルールベースの自然言語処理(NLP)とアトラスベースのバウンディングボックス検出パイプラインを使用して自動生成される。
- 参考スコア(独自算出の注目度): 5.906670720220545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the progress in automatic detection of radiologic findings from chest
X-ray (CXR) images in recent years, a quantitative evaluation of the
explainability of these models is hampered by the lack of locally labeled
datasets for different findings. With the exception of a few expert-labeled
small-scale datasets for specific findings, such as pneumonia and pneumothorax,
most of the CXR deep learning models to date are trained on global "weak"
labels extracted from text reports, or trained via a joint image and
unstructured text learning strategy. Inspired by the Visual Genome effort in
the computer vision community, we constructed the first Chest ImaGenome dataset
with a scene graph data structure to describe $242,072$ images. Local
annotations are automatically produced using a joint rule-based natural
language processing (NLP) and atlas-based bounding box detection pipeline.
Through a radiologist constructed CXR ontology, the annotations for each CXR
are connected as an anatomy-centered scene graph, useful for image-level
reasoning and multimodal fusion applications. Overall, we provide: i) $1,256$
combinations of relation annotations between $29$ CXR anatomical locations
(objects with bounding box coordinates) and their attributes, structured as a
scene graph per image, ii) over $670,000$ localized comparison relations (for
improved, worsened, or no change) between the anatomical locations across
sequential exams, as well as ii) a manually annotated gold standard scene graph
dataset from $500$ unique patients.
- Abstract(参考訳): 近年,胸部X線(CXR)画像からの放射線学的所見の自動検出が進んでいるが,局所的なラベル付きデータセットの欠如による説明可能性の定量的評価は困難である。
肺炎や気胸などの特定の発見のために、専門家がラベル付けした少数の小規模データセットを除いて、これまでのCXRディープラーニングモデルのほとんどは、テキストレポートから抽出されたグローバルな"弱"ラベルに基づいてトレーニングされている。
コンピュータビジョンコミュニティにおけるVisual Genomeの取り組みに触発された私たちは,シーングラフデータ構造を備えた最初のChest ImaGenomeデータセットを構築した。
ローカルアノテーションは、ジョイントルールベースの自然言語処理(NLP)とアトラスベースのバウンディングボックス検出パイプラインを使用して自動生成される。
CXRオントロジーを構築した放射線学者を通して、各CXRのアノテーションは解剖学的中心のシーングラフとして接続され、画像レベルの推論やマルチモーダル融合用途に有用である。
i)29ドルのcxr解剖学的位置(バウンディングボックス座標を持つオブジェクト)とその属性の間の関係アノテーションの1,256ドルの組み合わせ(画像毎のシーングラフとして構成される) 67,000ドル以上の局所的な比較関係(改良、悪化、変更なし) ii) 500ドルのユニークな患者からの手動で注釈付き金の標準シーングラフデータセット。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Finding-Aware Anatomical Tokens for Chest X-Ray Automated Reporting [13.151444796296868]
本稿では,解剖学的構造定位時に抽出した候補境界ボックスの検出を行う,Faster R-CNNの新たな適応法を提案する。
得られたバウンディングボックスの特徴表現を解剖学的トークンの発見セットとして使用します。
タスク対応の解剖学的トークンは、自動レポートパイプラインに統合された場合、最先端のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Detailed Annotations of Chest X-Rays via CT Projection for Report
Understanding [16.5295886999348]
臨床放射線学報告では、医師は患者の健康状態に関する重要な情報を取得する。
患者の内部構造に関する生の医療画像データから、観察結果を伝達する。
現在の医療画像処理システムでは、患者の解剖と外観の両方が明確に把握されていない。
論文 参考訳(メタデータ) (2022-10-07T09:21:48Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - GREN: Graph-Regularized Embedding Network for Weakly-Supervised Disease
Localization in X-ray images [35.18562405272593]
コンテキスト情報や補償情報として、クロスリージョンとクロスイメージの関係は、より一貫性のある統合された領域を得るために不可欠である。
胸部X線画像上の疾患の特定に画像内および画像間情報を活用するグラフ正規化埋め込みネットワーク(GREN)を提案する。
このことから,本研究はNIH胸部X線データを用いた軽度疾患局所化のための最先端の成果を得られた。
論文 参考訳(メタデータ) (2021-07-14T01:27:07Z) - Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images [21.23065972218941]
2段階の自己監督型表現学習目標を備えた新しいアプローチを紹介します。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
我々のモデルは、画像中の臨床的に関連のある領域を識別できる。
論文 参考訳(メタデータ) (2020-12-11T16:26:07Z) - BS-Net: learning COVID-19 pneumonia severity on a large Chest X-Ray
dataset [6.5800499500032705]
我々は、Chest X-rays画像(CXR)に基づいて、新型コロナウイルス患者の肺妥協の度合いを判定するエンド・ツー・エンドのディープラーニングアーキテクチャを設計する。
当院で収集した約5,000個のCXR注釈画像の臨床的データセットを利用して検討した。
私たちのソリューションは、評価精度と一貫性において、一人のアノテータよりも優れています。
論文 参考訳(メタデータ) (2020-06-08T13:55:58Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。