論文の概要: ChEX: Interactive Localization and Region Description in Chest X-rays
- arxiv url: http://arxiv.org/abs/2404.15770v2
- Date: Mon, 15 Jul 2024 15:22:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 00:56:00.011186
- Title: ChEX: Interactive Localization and Region Description in Chest X-rays
- Title(参考訳): ChEX:胸部X線におけるインタラクティブな局在と領域記述
- Authors: Philip Müller, Georgios Kaissis, Daniel Rueckert,
- Abstract要約: レポート生成モデルは、胸部X線のような医療画像の微細なテキスト解釈を提供する。
レポート生成モデルは、しばしば相互作用性(すなわち、ユーザクエリを通じて生成プロセスをステアリングする能力)と局所的解釈可能性に欠ける。
本稿では,テキストプロンプトとバウンディングボックスを統合した新しいマルチタスクアーキテクチャとトレーニングパラダイムを提案する。
- 参考スコア(独自算出の注目度): 15.57447423062306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Report generation models offer fine-grained textual interpretations of medical images like chest X-rays, yet they often lack interactivity (i.e. the ability to steer the generation process through user queries) and localized interpretability (i.e. visually grounding their predictions), which we deem essential for future adoption in clinical practice. While there have been efforts to tackle these issues, they are either limited in their interactivity by not supporting textual queries or fail to also offer localized interpretability. Therefore, we propose a novel multitask architecture and training paradigm integrating textual prompts and bounding boxes for diverse aspects like anatomical regions and pathologies. We call this approach the Chest X-Ray Explainer (ChEX). Evaluations across a heterogeneous set of 9 chest X-ray tasks, including localized image interpretation and report generation, showcase its competitiveness with SOTA models while additional analysis demonstrates ChEX's interactive capabilities. Code: https://github.com/philip-mueller/chex
- Abstract(参考訳): レポート生成モデルは、胸部X線のような医療画像のきめ細かいテキスト解釈を提供するが、対話性(すなわち、ユーザクエリを通じて生成プロセスを操る能力)と局所的解釈可能性(すなわち、その予測を視覚的に根拠づけること)が欠如していることが多い。
これらの問題に対処する努力はあったが、テキストクエリをサポートしない、あるいはローカライズされた解釈性を提供しないなど、対話性に制限がある。
そこで本研究では,解剖学的領域や病理などの多様な側面を対象としたテキストプロンプトとバウンディングボックスを統合した,新しいマルチタスクアーキテクチャとトレーニングパラダイムを提案する。
このアプローチをChest X-Ray Explainer (ChEX)と呼ぶ。
画像のローカライズされた解釈やレポート生成を含む9つの胸部X線タスクの不均一なセットに対する評価は、SOTAモデルとの競合性を示し、さらなる分析はChEXのインタラクティブ機能を示している。
コード:https://github.com/philip-mueller/chex
関連論文リスト
- Self-supervised vision-langage alignment of deep learning representations for bone X-rays analysis [53.809054774037214]
本稿では, 骨X線とフレンチレポートを組み合わせることで, 視覚言語による事前訓練を活用することを提案する。
骨X線表現にまつわる埋め込み空間を形成するために、フランスの報告を統合する最初の研究である。
論文 参考訳(メタデータ) (2024-05-14T19:53:20Z) - Grounded Knowledge-Enhanced Medical VLP for Chest X-Ray [12.239249676716247]
医用視覚言語プレトレーニングは、医用画像とテキストのドメイン汎用表現を学習するための有望なアプローチとして現れてきた。
胸部X線に対する知識強化型医療ビジョン言語事前学習フレームワークを提案する。
以上の結果から,胸部X線像とX線像との整合性を改善するために接地機構を組み込むことの利点が示唆された。
論文 参考訳(メタデータ) (2024-04-23T05:16:24Z) - CrossEAI: Using Explainable AI to generate better bounding boxes for
Chest X-ray images [0.0]
画像診断では、疾患の分類は通常、高い精度を達成するが、生成された境界ボックスは、IoU(Intersection over Union)よりもはるかに低い。
従来の研究では、これらの手法によって生成された境界ボックスは、通常、地上の真理よりも大きく、主要な非放出領域を含んでいることが示されている。
本稿では,胸部X線画像診断のためのバウンディングボックスを生成するために,ポストホックAIの利点を利用する。
論文 参考訳(メタデータ) (2023-10-29T17:48:39Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Vision-Language Generative Model for View-Specific Chest X-ray Generation [18.347723213970696]
ViewXGenは、フロントビュー胸部X線を生成する既存のメソッドの制限を克服するように設計されている。
提案手法は, データセット内の多様な視線位置を考慮し, 特定の視線を用いた胸部X線の生成を可能にする。
論文 参考訳(メタデータ) (2023-02-23T17:13:25Z) - CheXRelNet: An Anatomy-Aware Model for Tracking Longitudinal
Relationships between Chest X-Rays [2.9212099078191764]
我々は2つの胸部X線間の縦断的病理変化関係を追跡できる神経モデルであるCheXRelNetを提案する。
CheXRelNetは、ローカルおよびグローバルな視覚機能を導入し、画像内および画像内解剖情報を使用し、解剖学的領域属性間の依存関係を学習する。
論文 参考訳(メタデータ) (2022-08-08T02:22:09Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Contralaterally Enhanced Networks for Thoracic Disease Detection [120.60868136876599]
胸骨、肺野、気管支管など、胸部左右に類似した構造が多数存在する。
このような類似性は、広義の放射線学者の経験から、胸部X線における疾患の同定に利用することができる。
本稿では,病状提案の特徴表現を強化するために,対向的コンテキスト情報を活用するディープ・エンド・ツー・エンド・モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-09T10:15:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。