論文の概要: Multi Anatomy X-Ray Foundation Model
- arxiv url: http://arxiv.org/abs/2509.12146v1
- Date: Mon, 15 Sep 2025 17:12:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.418019
- Title: Multi Anatomy X-Ray Foundation Model
- Title(参考訳): マルチ解剖X線基礎モデル
- Authors: Nishank Singla, Krisztian Koos, Farzin Haddadpour, Amin Honarmandi Shandiz, Lovish Chum, Xiaojian Xu, Qing Jin, Erhan Bas,
- Abstract要約: 自己教師付き学習を用いたマルチ解剖学的X線基礎モデルであるXR-0を紹介する。
XR-0は、ほとんどのマルチ解剖学タスクで最先端のパフォーマンスを達成し、胸部固有のベンチマークで競争力を維持する。
- 参考スコア(独自算出の注目度): 7.079609136804425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: X-ray imaging is a ubiquitous in radiology, yet most existing AI foundation models are limited to chest anatomy and fail to generalize across broader clinical tasks. In this work, we introduce XR-0, the multi-anatomy X-ray foundation model using self-supervised learning on a large, private dataset of 1.15 million images spanning diverse anatomical regions and evaluated across 12 datasets and 20 downstream tasks, including classification, retrieval, segmentation, localization, visual grounding, and report generation. XR-0 achieves state-of-the-art performance on most multi-anatomy tasks and remains competitive on chest-specific benchmarks. Our results demonstrate that anatomical diversity and supervision are critical for building robust, general-purpose medical vision models, paving the way for scalable and adaptable AI systems in radiology.
- Abstract(参考訳): X線イメージングは放射線学においてユビキタスであるが、既存のAI基盤モデルは胸部解剖学に限られており、幅広い臨床タスクにまたがる一般化に失敗している。
本稿では,XR-0について紹介する。XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0,XR-0。
XR-0は、ほとんどのマルチ解剖学タスクで最先端のパフォーマンスを達成し、胸部固有のベンチマークで競争力を維持する。
我々の結果は、解剖学的多様性と監督が堅牢で汎用的な医療ビジョンモデルの構築に不可欠であることを示し、放射線学におけるスケーラブルで適応可能なAIシステムへの道を開いた。
関連論文リスト
- A Fully Open and Generalizable Foundation Model for Ultrasound Clinical Applications [77.3888788549565]
一般臨床用超音波基礎モデルであるEchoCareについて紹介する。
我々は、キュレートされた、一般公開された大規模なデータセットであるEchoCareData上で、自己教師付き学習を通じてEchoCareを開発した。
最小限のトレーニングで、EchoCareは10の代表的なベンチマークで最先端の比較モデルを上回っている。
論文 参考訳(メタデータ) (2025-09-15T10:05:31Z) - CADS: A Comprehensive Anatomical Dataset and Segmentation for Whole-Body Anatomy in Computed Tomography [27.1055374364626]
我々は,全体CTセグメント化のための異種データソースの体系的統合,標準化,ラベル付けを優先するオープンソースフレームワークであるCADSを提案する。
コアには22,022のCTボリュームの大規模なデータセットがあり、167の解剖学的構造に対する完全なアノテーションがある。
18の公開データセットと独立した実世界の病院コホートを包括的に評価することにより、SoTAアプローチに対するアドバンテージを実証する。
論文 参考訳(メタデータ) (2025-07-29T19:58:32Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - X-GRM: Large Gaussian Reconstruction Model for Sparse-view X-rays to Computed Tomography [89.84588038174721]
Computed Tomographyは臨床において必須のツールであり、内部解剖学的構造を非侵襲的に可視化する。
既存のCT再構成作業は、小さなキャパシティモデルアーキテクチャと非フレキシブルボリューム表現に限られている。
スパースビュー2次元X線プロジェクションから3次元CTボリュームを再構成する大規模なフィードフォワードモデルであるX-GRMを提案する。
論文 参考訳(メタデータ) (2025-05-21T08:14:10Z) - Advancing human-centric AI for robust X-ray analysis through holistic self-supervised learning [33.9544297423474]
873kの胸部X線で自己監督によって訓練された大型ビジュアルエンコーダであるRayDinoについて紹介する。
我々はレイディーノと過去の9つの放射線学課題における最先端モデルを比較し、分類と密分化からテキスト生成までについて述べる。
以上の結果から,患者中心型AIがX線の臨床・解釈に有用であることが示唆された。
論文 参考訳(メタデータ) (2024-05-02T16:59:10Z) - FluoroSAM: A Language-promptable Foundation Model for Flexible X-ray Image Segmentation [11.55858990545478]
FluoroSAMはSegment Anything Modelの言語プロンプト可能なバージョンである。
自然言語のプロンプトに基づいて、無数の解剖学的構造とツールをセグメント化することができる。
我々は,X線画像の取得と解析の文脈において,FluoroSAMがリッチな人間と機械の相互作用の鍵となる方法を示す。
論文 参考訳(メタデータ) (2024-03-12T20:11:38Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Self adaptive global-local feature enhancement for radiology report
generation [10.958641951927817]
グローバル・解剖学的領域の特徴を動的に融合して多粒性放射線学レポートを生成する新しいフレームワーク AGFNet を提案する。
まず,入力胸部X線(CXR)の解剖学的特徴と大域的特徴を抽出する。
そして,領域の特徴とグローバルな特徴を入力として,提案した自己適応型核融合ゲートモジュールは動的に多粒性情報を融合することができる。
最後に、キャプション生成装置は、多粒性特徴により放射線学レポートを生成する。
論文 参考訳(メタデータ) (2022-11-21T11:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。