論文の概要: WristMIR: Coarse-to-Fine Region-Aware Retrieval of Pediatric Wrist Radiographs with Radiology Report-Driven Learning
- arxiv url: http://arxiv.org/abs/2602.07872v2
- Date: Tue, 10 Feb 2026 11:05:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 15:31:43.028862
- Title: WristMIR: Coarse-to-Fine Region-Aware Retrieval of Pediatric Wrist Radiographs with Radiology Report-Driven Learning
- Title(参考訳): WristMIR: 小児レントゲン画像の粗大領域検索と放射線学レポート駆動学習
- Authors: Mert Sonmezer, Serge Vasylechko, Duygu Atasoy, Seyda Ertekin, Sila Kurugol,
- Abstract要約: WristMIRは、地域対応の小児手首画像検索フレームワークである。
手動のイメージレベルのアノテーションなしで、きめ細かい、臨床的に意味のある画像表現を学習する。
- 参考スコア(独自算出の注目度): 0.39146761527401425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Retrieving wrist radiographs with analogous fracture patterns is challenging because clinically important cues are subtle, highly localized and often obscured by overlapping anatomy or variable imaging views. Progress is further limited by the scarcity of large, well-annotated datasets for case-based medical image retrieval. We introduce WristMIR, a region-aware pediatric wrist radiograph retrieval framework that leverages dense radiology reports and bone-specific localization to learn fine-grained, clinically meaningful image representations without any manual image-level annotations. Using MedGemma-based structured report mining to generate both global and region-level captions, together with pre-processed wrist images and bone-specific crops of the distal radius, distal ulna, and ulnar styloid, WristMIR jointly trains global and local contrastive encoders and performs a two-stage retrieval process: (1) coarse global matching to identify candidate exams, followed by (2) region-conditioned reranking aligned to a predefined anatomical bone region. WristMIR improves retrieval performance over strong vision-language baselines, raising image-to-text Recall@5 from 0.82% to 9.35%. Its embeddings also yield stronger fracture classification (AUROC 0.949, AUPRC 0.953). In region-aware evaluation, the two-stage design markedly improves retrieval-based fracture diagnosis, increasing mean $F_1$ from 0.568 to 0.753, and radiologists rate its retrieved cases as more clinically relevant, with mean scores rising from 3.36 to 4.35. These findings highlight the potential of anatomically guided retrieval to enhance diagnostic reasoning and support clinical decision-making in pediatric musculoskeletal imaging. The source code is publicly available at https://github.com/quin-med-harvard-edu/WristMIR.
- Abstract(参考訳): 臨床的に重要な手がかりは微妙で、高度に局所化され、しばしば重なり合う解剖学的、あるいは様々な画像像によって隠蔽されるため、同様の骨折パターンで手首のX線写真を取得することは困難である。
進歩は、ケースベースの医療画像検索のための、大きく、よく注釈付けされたデータセットの不足によってさらに制限されている。
WristMIRは、高密度な放射線診断レポートと骨特異的な局所化を利用して、手動画像レベルのアノテーションを使わずに、きめ細かい、臨床的に意味のある画像表現を学習する、地域対応の小児手首X線写真検索フレームワークである。
MedGemmaをベースとした構造化されたレポートマイニングを用いて、大域および地域レベルのキャプションを生成し、前処理した手首画像と遠位骨、遠位尺骨、尺骨スタイロイドの骨特異的な作物を併用し、WristMIRは、グローバルおよび局所的なコントラストエンコーダを共同で訓練し、2段階の検索プロセスを実行する。
WristMIRは強力な視覚言語ベースの検索性能を改善し、画像からテキストへのリコール@5を0.82%から9.35%に引き上げた。
埋め込みにより、より強力な破壊分類(AUROC 0.949, AUPRC 0.953)も得られる。
地域別評価では、この2段階の設計は、検索ベースの骨折診断を著しく改善し、平均$F_1$を0.568から0.753に増加させ、放射線技師は、検索された症例を3.36から4.35まで、より臨床的に関連があるとして評価する。
以上の結果から,診断的推論を向上し,小児筋骨格画像診断における臨床的意思決定を支援するための解剖学的ガイドによる検索の可能性が示唆された。
ソースコードはhttps://github.com/quin-med-harvard-edu/WristMIRで公開されている。
関連論文リスト
- Unsupervised Machine Learning for Osteoporosis Diagnosis Using Singh Index Clustering on Hip Radiographs [0.0]
Singh Index (SI) は単純で半定量的な骨粗しょう症の診断方法である。
本研究は, 機械学習アルゴリズムを用いて, ラジオグラフからのSI識別を自動化することを目的とする。
論文 参考訳(メタデータ) (2024-11-22T08:44:43Z) - Content-Based Image Retrieval for Multi-Class Volumetric Radiology Images: A Benchmark Study [0.6249768559720122]
非医用画像上の事前訓練された教師なしモデルからの埋め込みに対して、医用画像上の事前訓練された教師なしモデルからの埋め込みをベンチマークした。
ボリューム画像の検索には,テキストマッチングにインスパイアされた遅延インタラクションのランク付け手法を採用する。
論文 参考訳(メタデータ) (2024-05-15T13:34:07Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Local Contrastive Learning for Medical Image Recognition [0.0]
Local Region Contrastive Learning(LRCLR)は、画像領域の選択と相互モダリティの相互作用のためのレイヤを追加するフレキシブルな微調整フレームワークである。
胸部X線検査の結果から,LRCLRは重要な局所画像領域を同定し,放射線学的テキストに対して有意義な解釈を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2023-03-24T17:04:26Z) - Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - VinDr-SpineXR: A deep learning framework for spinal lesions detection
and classification from radiographs [0.812774532310979]
本研究の目的は,脊椎X線からの異常の分類と局所化を目的とした,深層学習に基づくフレームワーク VinDr-SpineXR の開発と評価である。
5000件の研究から得られた10,468個の脊椎X線画像からなる大規模なデータセットを構築した。
VinDr-SpineXRは、1000の研究から得られた2,078枚の画像で評価され、トレーニングセットとは分離されている。
論文 参考訳(メタデータ) (2021-06-24T11:45:44Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。