論文の概要: MR-CLIP: Efficient Metadata-Guided Learning of MRI Contrast Representations
- arxiv url: http://arxiv.org/abs/2507.00043v1
- Date: Mon, 23 Jun 2025 13:27:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.052822
- Title: MR-CLIP: Efficient Metadata-Guided Learning of MRI Contrast Representations
- Title(参考訳): MR-CLIP:MRIコントラスト表現の効率的なメタデータ誘導学習
- Authors: Mehmet Yigit Avci, Pedro Borges, Paul Wright, Mehmet Yigitsoy, Sebastien Ourselin, Jorge Cardoso,
- Abstract要約: MR-CLIPは、MR画像とDICOMメタデータを整合させてコントラスト認識表現を学習するマルチモーダルコントラスト学習フレームワークである。
クロスモーダル検索とコントラスト分類におけるその効果を実証し、その拡張性とさらなる臨床応用の可能性を強調した。
- 参考スコア(独自算出の注目度): 0.8430273876996414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate interpretation of Magnetic Resonance Imaging scans in clinical systems is based on a precise understanding of image contrast. This contrast is primarily governed by acquisition parameters, such as echo time and repetition time, which are stored in the DICOM metadata. To simplify contrast identification, broad labels such as T1-weighted or T2-weighted are commonly used, but these offer only a coarse approximation of the underlying acquisition settings. In many real-world datasets, such labels are entirely missing, leaving raw acquisition parameters as the only indicators of contrast. Adding to this challenge, the available metadata is often incomplete, noisy, or inconsistent. The lack of reliable and standardized metadata complicates tasks such as image interpretation, retrieval, and integration into clinical workflows. Furthermore, robust contrast-aware representations are essential to enable more advanced clinical applications, such as achieving modality-invariant representations and data harmonization. To address these challenges, we propose MR-CLIP, a multimodal contrastive learning framework that aligns MR images with their DICOM metadata to learn contrast-aware representations, without relying on manual labels. Trained on a diverse clinical dataset that spans various scanners and protocols, MR-CLIP captures contrast variations across acquisitions and within scans, enabling anatomy-invariant representations. We demonstrate its effectiveness in cross-modal retrieval and contrast classification, highlighting its scalability and potential for further clinical applications. The code and weights are publicly available at https://github.com/myigitavci/MR-CLIP.
- Abstract(参考訳): 臨床システムにおける磁気共鳴イメージングスキャンの正確な解釈は、画像コントラストの正確な理解に基づいている。
このコントラストは主に、DICOMメタデータに格納されるエコー時間や繰り返し時間などの取得パラメータによって制御される。
コントラスト識別を簡略化するために、T1重み付けやT2重み付けといった幅広いラベルが一般的に使用されるが、これらは基盤となる取得設定の粗い近似のみを提供する。
多くの実世界のデータセットでは、そのようなラベルは完全に欠落しており、生の取得パラメータが唯一のコントラストの指標として残されている。
この課題に加え、利用可能なメタデータはしばしば不完全、うるさい、一貫性がない。
信頼性と標準化されたメタデータの欠如は、画像解釈、検索、臨床ワークフローへの統合といったタスクを複雑にする。
さらに、頑健なコントラスト対応表現は、モダリティ不変表現の達成やデータ調和化など、より高度な臨床応用を可能にするために不可欠である。
これらの課題に対処するために,MR-CLIPを提案する。MR画像とDICOMメタデータを整合させて,手動ラベルに頼ることなくコントラスト認識表現を学習する,マルチモーダルコントラスト学習フレームワークである。
様々なスキャナーとプロトコルにまたがる多様な臨床データセットに基づいて訓練されたMR-CLIPは、取得とスキャンのコントラストの変化をキャプチャし、解剖学的不変の表現を可能にする。
クロスモーダル検索とコントラスト分類におけるその効果を実証し、その拡張性とさらなる臨床応用の可能性を強調した。
コードとウェイトはhttps://github.com/myigitavci/MR-CLIPで公開されている。
関連論文リスト
- MadCLIP: Few-shot Medical Anomaly Detection with CLIP [14.023527193608142]
医療データに事前訓練されたCLIPモデルを活用する,革新的な数発の異常検出手法を提案する。
学習可能なアダプタを用いて,正常な特徴と異常な特徴を別々に捉えるために,デュアルブランチ設計を提案する。
セマンティックアライメントを改善するために、学習可能なテキストプロンプトを使用して視覚的特徴をリンクする。
論文 参考訳(メタデータ) (2025-06-30T12:56:17Z) - pyMEAL: A Multi-Encoder Augmentation-Aware Learning for Robust and Generalizable Medical Image Translation [0.0]
3D医療画像は、取得プロトコル、スキャナの違い、患者の動きによって、データの不足と不整合に悩まされている。
従来の拡張では、すべての変換に単一のパイプラインを使用しており、各拡張のユニークな特性を無視している。
専用エンコーダによって処理される4つの異なる拡張変異を利用したマルチエンコーダ拡張学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T10:01:23Z) - RadIR: A Scalable Framework for Multi-Grained Medical Image Retrieval via Radiology Report Mining [48.21287619304126]
本稿では,複数の粒度で画像の類似度を決定するために,高密度ラジオロジーレポートを利用した新しい手法を提案する。
我々は、胸部X線用MIMIC-IRとCTスキャン用CTRATE-IRの2つの総合的な医用画像検索データセットを構築した。
RadIR-CXR と Model-ChestCT という2つの検索システムを開発し,従来の画像画像検索と画像レポート検索に優れた性能を示す。
論文 参考訳(メタデータ) (2025-03-06T17:43:03Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - CABLD: Contrast-Agnostic Brain Landmark Detection with Consistency-Based Regularization [2.423045468361048]
CABLDは、ラベルなしスキャンにおける3次元脳ランドマーク検出のための、新しい自己教師型ディープラーニングフレームワークである。
提案手法はMRIによる脳のランドマーク検出を複雑に行うことで実証する。
我々のフレームワークは、解剖学的ランドマーク検出のための堅牢で正確なソリューションを提供し、広範囲の注釈付きデータセットの必要性を減らす。
論文 参考訳(メタデータ) (2024-11-26T19:56:29Z) - Explainable unsupervised multi-modal image registration using deep
networks [2.197364252030876]
MRI画像登録は、異なるモダリティ、時間点、スライスから幾何学的に「ペア」診断することを目的としている。
本研究では,我々のDLモデルが完全に説明可能であることを示し,さらなる医用画像データへのアプローチを一般化するための枠組みを構築した。
論文 参考訳(メタデータ) (2023-08-03T19:13:48Z) - One Model to Synthesize Them All: Multi-contrast Multi-scale Transformer
for Missing Data Imputation [3.9207133968068684]
我々は、シーケンス・ツー・シーケンス学習問題として、欠落データ計算を定式化する。
マルチコントラストマルチスケールトランス (MMT) を提案する。
MMTは、異なる領域における各入力コントラストの重要性を理解することができるため、本質的に解釈可能である。
論文 参考訳(メタデータ) (2022-04-28T18:49:27Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。