論文の概要: OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2602.04547v1
- Date: Wed, 04 Feb 2026 13:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.544371
- Title: OmniRad: A Radiological Foundation Model for Multi-Task Medical Image Analysis
- Title(参考訳): マルチタスク医療画像解析のための放射線基礎モデルOmniRad
- Authors: Luca Zedda, Andrea Loddo, Cecilia Di Ruberto,
- Abstract要約: 我々は、120万枚の医療画像に基づいて事前訓練された、自己監督型基礎モデルであるOmniRadを紹介する。
分類とセグメンテーションにまたがる幅広い公開ベンチマークで評価する。
- 参考スコア(独自算出の注目度): 2.8826431001526616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Radiological analysis increasingly benefits from pretrained visual representations that can support heterogeneous downstream tasks across imaging modalities. In this work, we introduce OmniRad, a self-supervised radiological foundation model pretrained on 1.2 million medical images, designed with radiology-inspired principles emphasizing representation reuse and cross-task transferability. We evaluate the pretrained encoder under multiple downstream adaptation regimes, including lightweight task-specific adapters with a frozen backbone as well as full end-to-end fine-tuning for classification, allowing us to assess both representation quality and task-specific performance. OmniRad is evaluated on a broad suite of public benchmarks spanning classification and segmentation across multiple modalities. On the MedMNISTv2 collection, OmniRad improves classification F1 by up to 2.05% over competing foundation models. For dense prediction, OmniRad attains mean Dice score improvements across six MedSegBench datasets when using frozen representations. Qualitative analyses and latent-space visualizations suggest improved feature clustering and modality-related separation.
- Abstract(参考訳): 放射線学的解析は、画像のモダリティを越えて不均一な下流タスクをサポートする、事前訓練された視覚表現の恩恵をますます受けている。
本研究は, 医用画像120万枚を事前訓練した自己教師型放射線基礎モデルであるOmniRadについて紹介する。
複数の下流適応方式で事前訓練したエンコーダの評価を行い、凍結したバックボーンを持つ軽量なタスク固有アダプタや、分類のためのエンド・ツー・エンドの微調整を行い、表現品質とタスク固有性能の両方を評価する。
OmniRadは、分類とセグメンテーションにまたがる幅広い公開ベンチマークで評価されている。
MedMNISTv2コレクションでは、OmniRadは競合する基礎モデルよりもF1の分類を最大2.05%改善している。
厳密な予測のために、OmniRadは凍結表現を使用すると、6つのMedSegBenchデータセットでDiceスコアが改善される。
定性的解析と潜在空間の可視化は、特徴クラスタリングの改善とモダリティ関連分離を示唆している。
関連論文リスト
- A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - Adapting Foundation Model for Dental Caries Detection with Dual-View Co-Training [53.77904429789069]
本稿では, 歯列検出のための新しいDual-View Co-TrainingネットワークであるAttention-TNetについて紹介する。
OurTNetは、自動歯肉検出を用いて、パノラマX線画像からのグローバルビューと、収穫した歯肉画像からのローカルビューの2つの補完的なビューを確立する。
両ビューからの情報を効果的に統合するために,Gated Cross-Viewモジュールを導入する。
論文 参考訳(メタデータ) (2025-08-28T14:13:26Z) - Large Kernel MedNeXt for Breast Tumor Segmentation and Self-Normalizing Network for pCR Classification in Magnetic Resonance Images [0.0]
我々は,3x3x3から5x5x5までの受容場を拡大する2段階のトレーニング戦略を備えた大規模カーネルMedNeXtアーキテクチャを採用している。
pCR分類では,予測セグメンテーションから抽出した放射能特性に基づいて自己正規化ネットワーク(SNN)を訓練した。
以上の結果から,より大きな受容野と放射能による分類の利点が示唆された。
論文 参考訳(メタデータ) (2025-08-03T16:37:14Z) - AuxDet: Auxiliary Metadata Matters for Omni-Domain Infrared Small Target Detection [49.81255045696323]
補助メタデータ駆動型赤外小型ターゲット検出器(AuxDet)について述べる。
AuxDetはメタデータセマンティクスと視覚的特徴を統合し、各サンプルに対する適応表現学習を導く。
挑戦的なWideIRSTD-Fullベンチマークの実験は、AuxDetが一貫して最先端のメソッドより優れていることを示した。
論文 参考訳(メタデータ) (2025-05-21T07:02:05Z) - Generalizing Medical Image Representations via Quaternion Wavelet Networks [9.836302410524842]
医用画像から健全な特徴を抽出できる,新しい,一般化可能な,データに依存しないフレームワークを提案する。
提案する4元ウェーブレットネットワーク(quaVE)は,既存の医用画像解析や合成作業と容易に統合できる。
論文 参考訳(メタデータ) (2023-10-16T09:34:06Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。