論文の概要: Scene Graph Aided Radiology Report Generation
- arxiv url: http://arxiv.org/abs/2403.05687v1
- Date: Fri, 8 Mar 2024 21:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:51:41.279443
- Title: Scene Graph Aided Radiology Report Generation
- Title(参考訳): 現場グラフを用いた放射線報告書の作成
- Authors: Jun Wang, Lixing Zhu, Abhir Bhalerao, and Yulan He
- Abstract要約: 放射線診断報告生成法 (RRG) は、臨床的に正確な報告を作成するのに十分な医療知識を欠くことが多い。
本稿では,地域レベルの視覚特徴を生成し,解剖学的属性を予測し,自動生成シーングラフを利用するScene Graph aided RRG (SGRRG) ネットワークを提案する。
SGRRGは、レポート生成における従来の最先端の手法よりも優れており、異常な発見をよりよく捉えることができる。
- 参考スコア(独自算出の注目度): 22.005692393030493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiology report generation (RRG) methods often lack sufficient medical
knowledge to produce clinically accurate reports. The scene graph contains rich
information to describe the objects in an image. We explore enriching the
medical knowledge for RRG via a scene graph, which has not been done in the
current RRG literature. To this end, we propose the Scene Graph aided RRG
(SGRRG) network, a framework that generates region-level visual features,
predicts anatomical attributes, and leverages an automatically generated scene
graph, thus achieving medical knowledge distillation in an end-to-end manner.
SGRRG is composed of a dedicated scene graph encoder responsible for
translating the scene graph, and a scene graph-aided decoder that takes
advantage of both patch-level and region-level visual information. A
fine-grained, sentence-level attention method is designed to better dis-till
the scene graph information. Extensive experiments demonstrate that SGRRG
outperforms previous state-of-the-art methods in report generation and can
better capture abnormal findings.
- Abstract(参考訳): 放射線診断報告生成法 (RRG) は、臨床的に正確な報告を作成するのに十分な医療知識を欠くことが多い。
シーングラフは、画像内のオブジェクトを記述するための豊富な情報を含んでいる。
現在のRRG文献では行われていないシーングラフを用いてRRGの医療知識の充実について検討する。
そこで本研究では,領域レベルの視覚的特徴を生成し,解剖学的属性を予測し,自動生成したシーングラフを活用し,エンドツーエンドで医療知識の蒸留を実現するためのフレームワークであるsgrrg(sgrrg)ネットワークを提案する。
SGRRGは、シーングラフを翻訳する専用のシーングラフエンコーダと、パッチレベルと領域レベルの両方の視覚情報を活用するシーングラフ支援デコーダで構成されている。
微粒な文レベルアテンション法はシーングラフ情報をより精査するように設計されている。
大規模な実験により、SGRRGはレポート生成において従来の最先端の手法よりも優れており、異常な発見をよりよく捉えることができることが示された。
関連論文リスト
- Greener GRASS: Enhancing GNNs with Encoding, Rewiring, and Attention [12.409982249220812]
本稿では,新しいGNNアーキテクチャであるGraph Attention with Structures (GRASS)を紹介する。
GRASSはランダムな正規グラフを重畳して入力グラフをリワイヤし、長距離情報伝搬を実現する。
また、グラフ構造化データに適した新しい付加的注意機構も採用している。
論文 参考訳(メタデータ) (2024-07-08T06:21:56Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - SGRAM: Improving Scene Graph Parsing via Abstract Meaning Representation [24.93559076181481]
シーングラフ(Scene graph)は、画像やテキストからグラフの形式としてモデル化可能な、構造化されたセマンティック表現である。
本稿では,視覚シーンのテキスト記述からシーングラフを解析する問題に焦点をあてる。
抽象的意味表現を用いた簡易で効果的な2段階のシーングラフ解析フレームワークを設計する。
論文 参考訳(メタデータ) (2022-10-17T00:37:00Z) - Attributed Abnormality Graph Embedding for Clinically Accurate X-Ray
Report Generation [7.118069629513661]
我々は、属性異常グラフ(ATAG)と呼ばれる、新しい微粒化知識グラフ構造を導入する。
ATAGは相互接続された異常ノードと属性ノードで構成されており、異常の詳細をより正確に把握することができる。
提案したATAG-based Deep ModelはSOTA法よりも大きなマージンで優れており, 得られた報告の臨床的精度を向上させることができる。
論文 参考訳(メタデータ) (2022-07-04T05:32:00Z) - Unconditional Scene Graph Generation [72.53624470737712]
我々はラベル付きおよび有向グラフ上の確率分布を学習できるSceneGraphGenと呼ばれる深層自己回帰モデルを開発した。
SceneGraphGenによって生成されたシーングラフは多様であり、実世界のシーンのセマンティックなパターンに従う。
論文 参考訳(メタデータ) (2021-08-12T17:57:16Z) - A Comprehensive Survey of Scene Graphs: Generation and Application [42.07469181785126]
シーングラフ(Scene graph)は、シーン内のオブジェクト間のオブジェクト、属性、関係を明確に表現できるシーンの構造化された表現である。
現在、シーングラフの比較的体系的な調査は行われていない。
論文 参考訳(メタデータ) (2021-03-17T04:24:20Z) - Learning Visual Commonsense for Robust Scene Graph Generation [49.208518291993705]
シーングラフ生成モデルは、野生における知覚の難しさのために間違いを犯しがちである。
本稿では,データから可視性や直感的な物理などの視覚的常識を自動取得する手法を提案する。
本モデルでは,どの手法よりもコモンセンスを学習し,最先端のシーングラフ生成手法の精度を向上させる。
論文 参考訳(メタデータ) (2020-06-17T03:07:53Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - Bridging Knowledge Graphs to Generate Scene Graphs [49.69377653925448]
本稿では,2つのグラフ間の情報伝達を反復的に行う新しいグラフベースニューラルネットワークを提案する。
我々のグラフブリッジネットワークであるGB-Netは、エッジとノードを連続的に推論し、相互接続されたシーンとコモンセンスグラフのリッチでヘテロジニアスな構造を同時に活用し、洗練する。
論文 参考訳(メタデータ) (2020-01-07T23:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。