論文の概要: Content-based 3D Image Retrieval and a ColBERT-inspired Re-ranking for Tumor Flagging and Staging
- arxiv url: http://arxiv.org/abs/2507.17412v1
- Date: Wed, 23 Jul 2025 11:12:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.968922
- Title: Content-based 3D Image Retrieval and a ColBERT-inspired Re-ranking for Tumor Flagging and Staging
- Title(参考訳): コンテントベース3次元画像検索とColBERTにインスパイアされた腫瘍のフラグングとステージングのための再評価
- Authors: Farnaz Khun Jush, Steffen Vogler, Matthias Lenga,
- Abstract要約: 本研究は,3つの重要なコントリビューションを通じて,ボリューム医療画像に対するCBIR研究を進展させる。
C-MIRは,ColBERTの文脈的遅延相互作用機構を応用した3次元医用画像のための新しいボリュームリグレード法である。
本稿では,後続相互作用原理のボリューム医療画像への適応性を実証し,効果的な文脈認識の再ランク付けを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing volume of medical images poses challenges for radiologists in retrieving relevant cases. Content-based image retrieval (CBIR) systems offer potential for efficient access to similar cases, yet lack standardized evaluation and comprehensive studies. Building on prior studies for tumor characterization via CBIR, this study advances CBIR research for volumetric medical images through three key contributions: (1) a framework eliminating reliance on pre-segmented data and organ-specific datasets, aligning with large and unstructured image archiving systems, i.e. PACS in clinical practice; (2) introduction of C-MIR, a novel volumetric re-ranking method adapting ColBERT's contextualized late interaction mechanism for 3D medical imaging; (3) comprehensive evaluation across four tumor sites using three feature extractors and three database configurations. Our evaluations highlight the significant advantages of C-MIR. We demonstrate the successful adaptation of the late interaction principle to volumetric medical images, enabling effective context-aware re-ranking. A key finding is C-MIR's ability to effectively localize the region of interest, eliminating the need for pre-segmentation of datasets and offering a computationally efficient alternative to systems relying on expensive data enrichment steps. C-MIR demonstrates promising improvements in tumor flagging, achieving improved performance, particularly for colon and lung tumors (p<0.05). C-MIR also shows potential for improving tumor staging, warranting further exploration of its capabilities. Ultimately, our work seeks to bridge the gap between advanced retrieval techniques and their practical applications in healthcare, paving the way for improved diagnostic processes.
- Abstract(参考訳): 医療画像の量の増加は、放射線科医が関連する症例を検索する際の課題となっている。
CBIR(Content-based Image Search)システムは、類似したケースへの効率的なアクセスの可能性を提供するが、標準化された評価と包括的な研究は欠如している。
本研究は, CBIRによる腫瘍像評価のための先行研究に基づいて, CBIRによる3つの重要な貢献により, 1) 術前データおよび臓器特異的データセットへの依存を排除し, 大規模・非構造化画像アーカイブシステム(PACS)に適合する枠組み, (2) 臨床におけるC-MIRの導入, 3次元医用画像におけるColBERTの文脈的遅延相互作用機構を応用した新しいボリューム再構成手法, (3) 特徴抽出器と3つのデータベース構成を用いた4つの腫瘍部位の総合的評価を行った。
評価はC-MIRの重要な利点を浮き彫りにする。
本稿では,遅延相互作用原理のボリューム医療画像への適応性を実証し,効果的な文脈認識の再評価を可能にする。
重要な発見は、C-MIRが関心領域を効果的にローカライズし、データセットの事前セグメンテーションの必要性を排除し、高価なデータエンリッチメントステップに依存するシステムに対する計算的に効率的な代替手段を提供する能力である。
C-MIRは腫瘍フラグングの有望な改善を示し、特に大腸癌や肺腫瘍(p<0.05。
C-MIRはまた、腫瘍のステージングを改善する可能性を示し、その能力のさらなる探索を保証している。
最終的に、我々の研究は、高度な検索技術と医療における実践的応用のギャップを埋め、診断プロセスの改善への道を開くことを目指している。
関連論文リスト
- RadiomicsRetrieval: A Customizable Framework for Medical Image Retrieval Using Radiomics Features [3.0015555136149175]
RadiomicsRetrievalは、医用画像のための3Dコンテンツベースの検索フレームワークである。
既存の2Dアプローチとは異なり、RadiomicsRetrievalは、医療画像のよりリッチな空間コンテキストを活用するために、ボリュームデータを完全に活用する。
論文 参考訳(メタデータ) (2025-07-11T12:48:25Z) - RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [64.66825253356869]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - CMRxRecon2024: A Multi-Modality, Multi-View K-Space Dataset Boosting Universal Machine Learning for Accelerated Cardiac MRI [40.11088079783521]
CMRxRecon2024データセットは、最も大きく、最もプロトカルなディバースで公開されている心臓k空間データセットである。
健常者330名から取得され、一般的に使用されるモダリティ、解剖学的視点、臨床心臓MRIにおける獲得軌跡をカバーしている。
論文 参考訳(メタデータ) (2024-06-27T09:50:20Z) - 3D-MIR: A Benchmark and Empirical Study on 3D Medical Image Retrieval in
Radiology [6.851500027718433]
3D画像検索の分野はまだ発展途上であり、確立された評価ベンチマーク、包括的なデータセット、徹底的な研究が欠如している。
本稿では,3次元医用画像検索のための新しいベンチマーク(3D-MIR)を提案する。
このベンチマークを用いて,一般的なマルチモーダル基礎モデルの2次元スライス,3次元ボリューム,マルチモーダル埋め込みをクエリとして利用する,多様な検索戦略を探索する。
論文 参考訳(メタデータ) (2023-11-23T00:57:35Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Multimodal Representation Learning of Cardiovascular Magnetic Resonance
Imaging [11.887706872979697]
我々は、CMR画像と関連する心臓医の報告のシーケンスを共同で学習するマルチモーダル学習フレームワークである textbfCMRformer を提案する。
我々の研究はCMR研究の進歩を早める可能性があり、より正確で効果的な診断と治療につながる可能性がある。
論文 参考訳(メタデータ) (2023-04-16T02:35:27Z) - MyoPS: A Benchmark of Myocardial Pathology Segmentation Combining
Three-Sequence Cardiac Magnetic Resonance Images [84.02849948202116]
本研究は,MyoPS(MyoPS)の医療画像解析における新たな課題を定義するものである。
myoPSは、MICCAI 2020とともにMyoPSチャレンジで最初に提案された3シーケンスの心臓磁気共鳴(CMR)画像を組み合わせている。
この課題は45対のCMR画像と予め整列されたCMR画像を提供し、アルゴリズムは3つのCMRシーケンスから補完的な情報を結合して病理領域を分割することを可能にする。
論文 参考訳(メタデータ) (2022-01-10T06:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。