論文の概要: ModAn-MulSupCon: Modality-and Anatomy-Aware Multi-Label Supervised Contrastive Pretraining for Medical Imaging
- arxiv url: http://arxiv.org/abs/2508.18613v1
- Date: Tue, 26 Aug 2025 02:27:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.644902
- Title: ModAn-MulSupCon: Modality-and Anatomy-Aware Multi-Label Supervised Contrastive Pretraining for Medical Imaging
- Title(参考訳): ModAn-MulSupCon: Modality-and Anatomy-Aware Multi-Label Supervistive Pretraining for Medical Imaging
- Authors: Eichi Takaya, Ryusei Inamori,
- Abstract要約: ModAn-MulSupCon (ModAn-MulSupCon) は、モダリティと解剖学を意識したマルチラベル教師付きコントラスト事前学習法である。
ResNet-18エンコーダは、RadImageNetのミニサブセット(miniRIN, 16,222イメージ)に、Jaccardで重み付けされたマルチラベルのコントラスト損失を監督する。
- 参考スコア(独自算出の注目度): 0.49109372384514843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background and objective: Expert annotations limit large-scale supervised pretraining in medical imaging, while ubiquitous metadata (modality, anatomical region) remain underused. We introduce ModAn-MulSupCon, a modality- and anatomy-aware multi-label supervised contrastive pretraining method that leverages such metadata to learn transferable representations. Method: Each image's modality and anatomy are encoded as a multi-hot vector. A ResNet-18 encoder is pretrained on a mini subset of RadImageNet (miniRIN, 16,222 images) with a Jaccard-weighted multi-label supervised contrastive loss, and then evaluated by fine-tuning and linear probing on three binary classification tasks--ACL tear (knee MRI), lesion malignancy (breast ultrasound), and nodule malignancy (thyroid ultrasound). Result: With fine-tuning, ModAn-MulSupCon achieved the best AUC on MRNet-ACL (0.964) and Thyroid (0.763), surpassing all baselines ($p<0.05$), and ranked second on Breast (0.926) behind SimCLR (0.940; not significant). With the encoder frozen, SimCLR/ImageNet were superior, indicating that ModAn-MulSupCon representations benefit most from task adaptation rather than linear separability. Conclusion: Encoding readily available modality/anatomy metadata as multi-label targets provides a practical, scalable pretraining signal that improves downstream accuracy when fine-tuning is feasible. ModAn-MulSupCon is a strong initialization for label-scarce clinical settings, whereas SimCLR/ImageNet remain preferable for frozen-encoder deployments.
- Abstract(参考訳): 背景と目的: 専門家アノテーションは医療画像における大規模教師付き事前訓練を制限する一方、ユビキタスメタデータ(モダリティ、解剖学的領域)は未使用のままである。
本稿では,モダリティと解剖学を意識したマルチラベル教師付きコントラスト事前学習手法であるModAn-MulSupConを紹介する。
方法:各画像のモダリティと解剖はマルチホットベクトルとして符号化される。
ResNet-18エンコーダは、RadImageNet(miniRIN, 16,222画像)のミニサブセットに、Jaccard重み付きマルチラベルによるコントラスト損失を監督した上で、ACL損傷(膝MRI)、病変悪性度(胸部超音波)、結節悪性度(甲状腺超音波)の3つのバイナリ分類タスクに対して、微調整および線形プローブにより評価する。
結果: 微調整により、ModAn-MulSupConはMRNet-ACL (0.964) と Thyroid (0.763) で最高のAUCを達成し、すべてのベースライン(p<0.05$)を上回り、SimCLR (0.940; 重要ではない)に次いでBreast (0.926) で2位となった。
エンコーダがフリーズされているため、SimCLR/ImageNetは優れており、ModAn-MulSupCon表現は線形分離性よりもタスク適応の恩恵を受けている。
結論: マルチラベルターゲットとして容易に利用可能なモダリティ/解剖メタデータを符号化することで、ファインチューニングが実現可能な場合、下流の精度を向上させる実用的な、スケーラブルな事前学習信号を提供する。
ModAn-MulSupConは、ラベルスカースの臨床設定の強力な初期化であり、SimCLR/ImageNetは、フリーズエンコーダのデプロイメントに好まれる。
関連論文リスト
- Few-Shot Deployment of Pretrained MRI Transformers in Brain Imaging Tasks [2.982793366290863]
種々の脳画像タスクにおいて,事前訓練したMRIトランスフォーマーを数発配置するためのフレームワークを提案する。
Masked Autoencoder (MAE) 事前学習戦略を利用することで,タスクやデータセット間でよく一般化された,高度に伝達可能な潜在表現が得られる。
論文 参考訳(メタデータ) (2025-08-07T18:53:28Z) - MR-CLIP: Efficient Metadata-Guided Learning of MRI Contrast Representations [0.8430273876996414]
MR-CLIPは、MR画像とDICOMメタデータを整合させてコントラスト認識表現を学習するマルチモーダルコントラスト学習フレームワークである。
クロスモーダル検索とコントラスト分類におけるその効果を実証し、その拡張性とさらなる臨床応用の可能性を強調した。
論文 参考訳(メタデータ) (2025-06-23T13:27:31Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Generating and Weighting Semantically Consistent Sample Pairs for
Ultrasound Contrastive Learning [10.631361618707214]
よく注釈付けされた医療データセットにより、ディープニューラルネットワーク(DNN)は、病変に関連する特徴を抽出する上で強力なパワーを得ることができる。
ImageNetに基づくモデル事前トレーニングは、データ量に制限がある場合に、より良い一般化を得るための一般的なプラクティスである。
本研究では,医療用USアプリケーションの領域ギャップを低減するために,ImageNetの代わりに超音波(US)ドメインを事前訓練する。
論文 参考訳(メタデータ) (2022-12-08T06:24:08Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。