論文の概要: Visual question answering-based image-finding generation for pulmonary nodules on chest CT from structured annotations
- arxiv url: http://arxiv.org/abs/2601.11075v1
- Date: Fri, 16 Jan 2026 08:21:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.404093
- Title: Visual question answering-based image-finding generation for pulmonary nodules on chest CT from structured annotations
- Title(参考訳): 構造的アノテーションを用いた胸部CT上肺結節の視覚的質問応答に基づく画像フィンディング生成
- Authors: Maiko Nagao, Kaito Urata, Atsushi Teramoto, Kazuyoshi Imaizumi, Masashi Kondo, Hiroshi Fujita,
- Abstract要約: 胸部CT画像における肺結節の診断には形態学的特徴に基づく画像所見の解釈が重要である。
本研究では,視覚的質問応答(VQA)に基づく胸部CT画像の画像処理手法について検討した。
本手法は,医師の関心に応じて画像所見を提示できる対話型診断支援システムとして有効であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretation of imaging findings based on morphological characteristics is important for diagnosing pulmonary nodules on chest computed tomography (CT) images. In this study, we constructed a visual question answering (VQA) dataset from structured data in an open dataset and investigated an image-finding generation method for chest CT images, with the aim of enabling interactive diagnostic support that presents findings based on questions that reflect physicians' interests rather than fixed descriptions. In this study, chest CT images included in the Lung Image Database Consortium and Image Database Resource Initiative (LIDC-IDRI) datasets were used. Regions of interest surrounding the pulmonary nodules were extracted from these images, and image findings and questions were defined based on morphological characteristics recorded in the database. A dataset comprising pairs of cropped images, corresponding questions, and image findings was constructed, and the VQA model was fine-tuned on it. Language evaluation metrics such as BLEU were used to evaluate the generated image findings. The VQA dataset constructed using the proposed method contained image findings with natural expressions as radiological descriptions. In addition, the generated image findings showed a high CIDEr score of 3.896, and a high agreement with the reference findings was obtained through evaluation based on morphological characteristics. We constructed a VQA dataset for chest CT images using structured information on the morphological characteristics from the LIDC-IDRI dataset. Methods for generating image findings in response to these questions have also been investigated. Based on the generated results and evaluation metric scores, the proposed method was effective as an interactive diagnostic support system that can present image findings according to physicians' interests.
- Abstract(参考訳): 胸部CT画像における肺結節の診断には形態学的特徴に基づく画像所見の解釈が重要である。
本研究では, 胸部CT画像の構造化データからVQAデータセットを構築し, 医師の興味を反映した質問に基づく診断支援を実現することを目的として, 胸部CT画像の画像処理手法を検討した。
本研究では,肺画像データベースコンソーシアムおよび画像データベースリソースイニシアチブ(LIDC-IDRI)データセットに含まれる胸部CT画像を用いた。
これらの画像から肺結節周囲の興味領域を抽出し,形態学的特徴に基づいて画像所見と疑問を定式化した。
収穫した画像のペア,対応する質問,画像所見からなるデータセットを構築し,その上にVQAモデルを微調整した。
BLEUなどの言語評価指標を用いて生成した画像の評価を行った。
提案手法を用いて構築したVQAデータセットは, 自然表現を用いた画像所見をラジオロジカルな記述として含んでいた。
また, 得られた画像からはCIDErスコアが3.896であり, 形態的特徴に基づく評価により, 基準値との高一致が得られた。
LIDC-IDRIデータセットから形態特性の構造化情報を用いた胸部CT画像用VQAデータセットを構築した。
これらの疑問に応えて画像所見を生成する方法も検討されている。
得られた結果と評価基準値に基づいて,医師の関心に応じて画像所見を提示できる対話型診断支援システムとして有効であった。
関連論文リスト
- Generation of Chest CT pulmonary Nodule Images by Latent Diffusion Models using the LIDC-IDRI Dataset [0.0]
臨床では,特定の症例に対して大量のCT画像を集めることは困難である。
潜在拡散モデル(LDM)を用いた入力テキストに基づく胸部CT結節画像の自動生成手法を提案する。
評価の結果,提案手法は特定の医学的特徴を捉えた高品質な画像を生成することができた。
論文 参考訳(メタデータ) (2026-01-16T08:36:12Z) - RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - MedIAnomaly: A comparative study of anomaly detection in medical images [26.319602363581442]
異常検出(AD)は、期待される正常なパターンから逸脱する異常なサンプルを検出することを目的としている。
医学的ADのための多くの方法が出現したにもかかわらず、公平で包括的な評価が欠如しているため、明確な結論が得られなかった。
本稿では,この問題に対処するため,比較を統一したベンチマークを構築した。
論文 参考訳(メタデータ) (2024-04-06T06:18:11Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Visual Grounding of Whole Radiology Reports for 3D CT Images [12.071135670684013]
今回,CT画像用に設計された最初の視覚的接地フレームワークについて紹介し,様々な身体部位と多様な異常タイプをカバーするペアを報告する。
本フレームワークは, 画像の解剖学的セグメント化と, レポート構造化の2つの構成要素を組み合わせたものである。
7,321名のユニークな患者を対象に,地域記述対応アノテーションを用いた大規模データセットを構築した。
論文 参考訳(メタデータ) (2023-12-08T02:09:17Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Fine-tuning ERNIE for chest abnormal imaging signs extraction [0.6091702876917281]
胸部異常画像徴候の抽出をシーケンシャルタグ付けおよびマッチング問題として定式化する。
ERNIEをバックボーンとする転写異常画像信号抽出器を提案する。
胸部画像レポートテキストの性質に基づいた,単純だが効果的なタグ2相関アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-25T05:18:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。