論文の概要: A Comparison of Object Detection and Phrase Grounding Models in Chest X-ray Abnormality Localization using Eye-tracking Data
- arxiv url: http://arxiv.org/abs/2503.01037v1
- Date: Sun, 02 Mar 2025 21:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:17.496780
- Title: A Comparison of Object Detection and Phrase Grounding Models in Chest X-ray Abnormality Localization using Eye-tracking Data
- Title(参考訳): 視線追跡データを用いた胸部X線異常位置推定における物体検出とフレーズ接地モデルの比較
- Authors: Elham Ghelichkhan, Tolga Tasdizen,
- Abstract要約: 本稿では,これら2つのタスクのパフォーマンスと説明可能性を比較し,胸部X線におけるテキストの異常局所化をいかに促進するかを検討する。
説明可能性ベースラインを確立するため,我々は,放射線学者の視線追跡データを用いて,文章の表示領域を自動生成するパイプラインを提案する。
句接地モデルのmIoU = 0.36 vs. 0.20, および説明可能性 - 含量比 0.48 vs. 0.26 は, 胸部X線異常局在の増強におけるテキストの有効性を推察する。
- 参考スコア(独自算出の注目度): 1.4272411349249625
- License:
- Abstract: Chest diseases rank among the most prevalent and dangerous global health issues. Object detection and phrase grounding deep learning models interpret complex radiology data to assist healthcare professionals in diagnosis. Object detection locates abnormalities for classes, while phrase grounding locates abnormalities for textual descriptions. This paper investigates how text enhances abnormality localization in chest X-rays by comparing the performance and explainability of these two tasks. To establish an explainability baseline, we proposed an automatic pipeline to generate image regions for report sentences using radiologists' eye-tracking data. The better performance - mIoU = 0.36 vs. 0.20 - and explainability - Containment ratio 0.48 vs. 0.26 - of the phrase grounding model infers the effectiveness of text in enhancing chest X-ray abnormality localization.
- Abstract(参考訳): 胸部疾患は、最も一般的で危険な世界的な健康問題の一つである。
物体検出とフレーズ接地深層学習モデルは、複雑な放射線学データを解釈し、医療専門家の診断を支援する。
オブジェクト検出はクラスの異常を検知し、句の接頭辞はテキスト記述の異常を検知する。
本稿では,これら2つのタスクのパフォーマンスと説明可能性を比較し,胸部X線におけるテキストの異常局所化をいかに促進するかを検討する。
説明可能性ベースラインを確立するため,我々は,放射線学者の視線追跡データを用いて,文章の表示領域を自動生成するパイプラインを提案する。
句接地モデルのmIoU = 0.36 vs. 0.20, および説明可能性 - 含量比 0.48 vs. 0.26 は, 胸部X線異常局在の増強におけるテキストの有効性を推察する。
関連論文リスト
- Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - DeepLOC: Deep Learning-based Bone Pathology Localization and
Classification in Wrist X-ray Images [1.45543311565555]
本稿では,手首X線画像における骨病理像の局在と分類のための新しいアプローチを提案する。
提案手法は,手首X線解析における2つの重要な課題,骨の正確な局在化と異常の正確な分類に対処する。
論文 参考訳(メタデータ) (2023-08-24T12:06:10Z) - Discrimination of Radiologists Utilizing Eye-Tracking Technology and
Machine Learning: A Case Study [0.9142067094647588]
本研究では,効率的な幾何アライメントのためのバイナリ固定データに基づく新しい離散化特徴符号化を提案する。
眼球固定データの符号化された特徴は、教員と研修生の放射線技師を識別するために機械学習分類器によって使用される。
論文 参考訳(メタデータ) (2023-08-04T23:51:47Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Anatomy-Guided Weakly-Supervised Abnormality Localization in Chest
X-rays [17.15666977702355]
本稿では,弱いアノテーション問題に対処するため,解剖誘導胸部X線ネットワーク(AGXNet)を提案する。
本フレームワークは2つのネットワークのカスケードから構成される。1つは解剖学的異常を同定し,もう1つは病理学的観察を行う。
MIMIC-CXRデータセットを用いて,AGXNetの疾患および解剖学的異常局在に対する有効性を示した。
論文 参考訳(メタデータ) (2022-06-25T18:33:27Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Weakly Supervised Contrastive Learning for Chest X-Ray Report Generation [3.3978173451092437]
放射線画像から記述テキストを自動的に生成することを目的とした放射線学レポート生成。
典型的な設定は、エンコーダとデコーダのモデルを、クロスエントロピー損失のあるイメージレポートペアでトレーニングする。
本稿では,医療報告生成におけるコントラスト損失の弱化について提案する。
論文 参考訳(メタデータ) (2021-09-25T00:06:23Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Contralaterally Enhanced Networks for Thoracic Disease Detection [120.60868136876599]
胸骨、肺野、気管支管など、胸部左右に類似した構造が多数存在する。
このような類似性は、広義の放射線学者の経験から、胸部X線における疾患の同定に利用することができる。
本稿では,病状提案の特徴表現を強化するために,対向的コンテキスト情報を活用するディープ・エンド・ツー・エンド・モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-09T10:15:26Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。