論文の概要: Interactive and Explainable Region-guided Radiology Report Generation
- arxiv url: http://arxiv.org/abs/2304.08295v1
- Date: Mon, 17 Apr 2023 14:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:00:08.382469
- Title: Interactive and Explainable Region-guided Radiology Report Generation
- Title(参考訳): 対話型および説明可能な領域誘導ラジオロジーレポート生成
- Authors: Tim Tanida, Philip M\"uller, Georgios Kaissis, Daniel Rueckert
- Abstract要約: 既存の方法では、画像レベルの特徴から完全なレポートを生成し、画像内の解剖学的領域に明示的にフォーカスすることができない。
本稿では, 解剖学的領域を検出し, 個人, 健康領域を記述し, 最終報告を作成するための簡易かつ効果的な地域誘導レポート生成モデルを提案する。
本手法は,新たな臨床応用事例を対話的機能によって開放し,高い透明性と説明可能性をもたらす。
- 参考スコア(独自算出の注目度): 6.667150890634173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automatic generation of radiology reports has the potential to assist
radiologists in the time-consuming task of report writing. Existing methods
generate the full report from image-level features, failing to explicitly focus
on anatomical regions in the image. We propose a simple yet effective
region-guided report generation model that detects anatomical regions and then
describes individual, salient regions to form the final report. While previous
methods generate reports without the possibility of human intervention and with
limited explainability, our method opens up novel clinical use cases through
additional interactive capabilities and introduces a high degree of
transparency and explainability. Comprehensive experiments demonstrate our
method's effectiveness in report generation, outperforming previous
state-of-the-art models, and highlight its interactive capabilities. The code
and checkpoints are available at https://github.com/ttanida/rgrg .
- Abstract(参考訳): 放射線科レポートの自動生成は、レポート作成の時間を要する作業において放射線科医を支援する可能性を秘めている。
既存の方法は画像レベルの特徴から完全なレポートを生成し、画像内の解剖学的領域に明示的にフォーカスすることができない。
本稿では,解剖学的領域を検知し,個々の有意義な領域を記述して最終報告を形成する,単純かつ効果的な領域誘導レポート生成モデルを提案する。
従来の手法では人的介入の可能性がなく,説明可能性も限られていたが,本手法では新たな臨床応用事例を新たな対話機能により開放し,高い透明性と説明可能性を実現する。
総合的な実験により,従来の最先端モデルに匹敵するレポート生成手法の有効性が示され,そのインタラクティブ性が強調された。
コードとチェックポイントはhttps://github.com/ttanida/rgrg で公開されている。
関連論文リスト
- Multi-modality Regional Alignment Network for Covid X-Ray Survival Prediction and Report Generation [36.343753593390254]
本研究は,放射線学報告の生成と生存予測のための説明可能なモデルであるマルチモーダル地域アライメントネットワーク(MRANet)を提案する。
MRANetは、領域固有の記述を視覚的に根拠として、完了戦略を備えた堅牢な解剖学的領域を提供する。
横断LDMアライメントは、画像からテキストへの転送プロセスを強化するために使用され、その結果、臨床詳細に富んだ文と、放射線医の説明可能性が改善された。
論文 参考訳(メタデータ) (2024-05-23T02:41:08Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - RaDialog: A Large Vision-Language Model for Radiology Report Generation
and Conversational Assistance [53.20640629352422]
会話型AIツールは、所定の医療画像に対して臨床的に正しい放射線学レポートを生成し、議論することができる。
RaDialogは、ラジオロジーレポート生成と対話ダイアログのための、初めて徹底的に評価され、公開された大きな視覚言語モデルである。
本手法は,報告生成における最先端の臨床的正確性を実現し,報告の修正や質問への回答などのインタラクティブなタスクにおいて,印象的な能力を示す。
論文 参考訳(メタデータ) (2023-11-30T16:28:40Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Controllable Chest X-Ray Report Generation from Longitudinal
Representations [13.151444796296868]
レポートをスピードアップする1つの戦略は、自動レポートシステムを統合することである。
自動放射線診断への従来のアプローチは、入力として事前の研究を提供していないのが一般的である。
筆者らは,(1) 縦断学習 -- マルチモーダルレポート生成モデルに提供可能な関節長手表現に,現在のスキャン情報と先行スキャン情報を整合し,活用する手法を提案する。(2) 文解剖学的ドロップアウト -- レポート生成モデルを用いて,入力として与えられた解剖学的領域のサブセットに対応する元のレポートからのみ文を予測する訓練戦略。
論文 参考訳(メタデータ) (2023-10-09T17:22:58Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Self adaptive global-local feature enhancement for radiology report
generation [10.958641951927817]
グローバル・解剖学的領域の特徴を動的に融合して多粒性放射線学レポートを生成する新しいフレームワーク AGFNet を提案する。
まず,入力胸部X線(CXR)の解剖学的特徴と大域的特徴を抽出する。
そして,領域の特徴とグローバルな特徴を入力として,提案した自己適応型核融合ゲートモジュールは動的に多粒性情報を融合することができる。
最後に、キャプション生成装置は、多粒性特徴により放射線学レポートを生成する。
論文 参考訳(メタデータ) (2022-11-21T11:50:42Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。