論文の概要: Finding-Aware Anatomical Tokens for Chest X-Ray Automated Reporting
- arxiv url: http://arxiv.org/abs/2308.15961v1
- Date: Wed, 30 Aug 2023 11:35:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 13:32:59.075336
- Title: Finding-Aware Anatomical Tokens for Chest X-Ray Automated Reporting
- Title(参考訳): 胸部X線自動報告のための解剖学的トークンの発見
- Authors: Francesco Dalla Serra, Chaoyang Wang, Fani Deligianni, Jeffrey Dalton,
Alison Q. O'Neil
- Abstract要約: 本稿では,解剖学的構造定位時に抽出した候補境界ボックスの検出を行う,Faster R-CNNの新たな適応法を提案する。
得られたバウンディングボックスの特徴表現を解剖学的トークンの発見セットとして使用します。
タスク対応の解剖学的トークンは、自動レポートパイプラインに統合された場合、最先端のパフォーマンスが得られることを示す。
- 参考スコア(独自算出の注目度): 13.151444796296868
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The task of radiology reporting comprises describing and interpreting the
medical findings in radiographic images, including description of their
location and appearance. Automated approaches to radiology reporting require
the image to be encoded into a suitable token representation for input to the
language model. Previous methods commonly use convolutional neural networks to
encode an image into a series of image-level feature map representations.
However, the generated reports often exhibit realistic style but imperfect
accuracy. Inspired by recent works for image captioning in the general domain
in which each visual token corresponds to an object detected in an image, we
investigate whether using local tokens corresponding to anatomical structures
can improve the quality of the generated reports. We introduce a novel
adaptation of Faster R-CNN in which finding detection is performed for the
candidate bounding boxes extracted during anatomical structure localisation. We
use the resulting bounding box feature representations as our set of
finding-aware anatomical tokens. This encourages the extracted anatomical
tokens to be informative about the findings they contain (required for the
final task of radiology reporting). Evaluating on the MIMIC-CXR dataset of
chest X-Ray images, we show that task-aware anatomical tokens give
state-of-the-art performance when integrated into an automated reporting
pipeline, yielding generated reports with improved clinical accuracy.
- Abstract(参考訳): 放射線学報告の課題は、その位置や外観の記述を含む、放射線画像の医学的発見を記述及び解釈することを含む。
ラジオロジーレポートへの自動アプローチでは、画像に適切なトークン表現をエンコードして言語モデルに入力する必要がある。
従来の方法では、畳み込みニューラルネットワークを使用してイメージを一連の画像レベルの特徴マップ表現にエンコードする。
しかし、生成されたレポートはしばしば現実的なスタイルを示すが、不完全な正確さを示す。
画像に検出された物体に対応する一般領域における画像キャプションに関する最近の研究から着想を得て,解剖学的構造に対応する局所トークンを用いることで,生成したレポートの品質を向上させることができるかを検討する。
本稿では,解剖学的構造定位時に抽出した候補境界ボックスの検出を行う,Faster R-CNNの新たな適応を提案する。
得られたバウンディングボックスの特徴表現を解剖学的トークンの集合として使用します。
これにより、抽出された解剖学的トークンは、それらが含む発見(放射線学報告の最終課題に要求される)について情報を与えることができる。
胸部X線画像のMIMIC-CXRデータセットから, 自動報告パイプラインに組み込んだタスク認識型解剖学的トークンにより, 臨床精度が向上した報告が得られた。
関連論文リスト
- Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Chest ImaGenome Dataset for Clinical Reasoning [5.906670720220545]
シーングラフデータ構造を持つChest ImaGenomeデータセットを初めて提供し、242,072$の画像を記述した。
ローカルアノテーションは、ジョイントルールベースの自然言語処理(NLP)とアトラスベースのバウンディングボックス検出パイプラインを使用して自動生成される。
論文 参考訳(メタデータ) (2021-07-31T20:10:30Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Chest X-ray Report Generation through Fine-Grained Label Learning [46.352966049776875]
画像から詳細な所見を学習する領域認識自動胸部X線診断レポート生成アルゴリズムを提案する。
また、画像にそのような記述子を割り当てる自動ラベリングアルゴリズムを開発し、発見の粗い記述ときめ細かい記述の両方を認識する新しいディープラーニングネットワークを構築した。
論文 参考訳(メタデータ) (2020-07-27T19:50:56Z) - Separation of target anatomical structure and occlusions in chest
radiographs [2.0478628221188497]
本稿では,無線画像から望ましくない視覚構造を抑圧する完全畳み込みネットワークを提案する。
提案アルゴリズムは高分解能CTスキャンから再構成されたラジオグラフィーと地上構造データを生成する。
論文 参考訳(メタデータ) (2020-02-03T14:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。