論文の概要: CheXLearner: Text-Guided Fine-Grained Representation Learning for Progression Detection
- arxiv url: http://arxiv.org/abs/2505.06903v1
- Date: Sun, 11 May 2025 08:51:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.101376
- Title: CheXLearner: Text-Guided Fine-Grained Representation Learning for Progression Detection
- Title(参考訳): CheXLearner: 進行検出のためのテキストガイド付ファイングレード表現学習
- Authors: Yuanzhuo Wang, Junwen Duan, Xinyu Li, Jianxin Wang,
- Abstract要約: 我々は、解剖学的領域の検出、構造的アライメント、意味的ガイダンスを統合する最初のエンドツーエンドフレームワークであるCheXLearnerを紹介する。
提案したMed-Manifold Alignment Module (Med-MAM) は双曲幾何学を利用して解剖学的構造を強固に整列させる。
本モデルでは,下流疾患分類における平均AUCスコアが91.52%に達し,その優れた特徴表現が検証された。
- 参考スコア(独自算出の注目度): 14.414457048968439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal medical image analysis is essential for clinical decision-making, yet existing methods either align images and text at a coarse level - causing potential semantic mismatches - or depend solely on visual information, lacking medical semantic integration. We present CheXLearner, the first end-to-end framework that unifies anatomical region detection, Riemannian manifold-based structure alignment, and fine-grained regional semantic guidance. Our proposed Med-Manifold Alignment Module (Med-MAM) leverages hyperbolic geometry to robustly align anatomical structures and capture pathologically meaningful discrepancies across temporal chest X-rays. By introducing regional progression descriptions as supervision, CheXLearner achieves enhanced cross-modal representation learning and supports dynamic low-level feature optimization. Experiments show that CheXLearner achieves 81.12% (+17.2%) average accuracy and 80.32% (+11.05%) F1-score on anatomical region progression detection - substantially outperforming state-of-the-art baselines, especially in structurally complex regions. Additionally, our model attains a 91.52% average AUC score in downstream disease classification, validating its superior feature representation.
- Abstract(参考訳): 時間的医療画像分析は臨床的意思決定に不可欠であるが、既存の手法では画像とテキストを粗いレベルで整列させ、潜在的な意味的ミスマッチを引き起こす。
解剖学的領域検出, リーマン多様体に基づく構造アライメント, きめ細かい局所意味指導を統一する最初のエンドツーエンドフレームワークであるCheXLearnerについて述べる。
提案したMed-Manifold Alignment Module (Med-MAM) は双曲形状を利用して解剖学的構造を強固に整列させ, 側頭胸部X線を横断する病理学的に有意な相違を捉える。
地域進行記述を監督として導入することにより、CheXLearnerはクロスモーダル表現学習の強化を実現し、動的低レベル特徴最適化をサポートする。
実験の結果、CheXLearnerの平均精度は81.12%(+17.2%)、解剖学的領域の進行検出では80.32%(+11.05%)のF1スコアを達成した。
さらに、下流疾患分類における平均AUCスコアは91.52%に達し、その優れた特徴表現を検証した。
関連論文リスト
- Myocardial Region-guided Feature Aggregation Net for Automatic Coronary artery Segmentation and Stenosis Assessment using Coronary Computed Tomography Angiography [13.885760158090692]
心筋領域誘導型特徴集約ネットは、冠状動脈セグメンテーションの堅牢性を高めるために、解剖学的事前知識を統合する新しいU字型二重エンコーダアーキテクチャである。
本フレームワークは,(1)ブリッジング拡張とマルチスケール機能融合による冠動脈領域への注意を誘導する心筋領域誘導モジュール,(2)並列空間チャネルの注意と残留ブロックを結合して局所的特徴識別を増強する残留特徴抽出モジュール,(3)階層的血管特徴の適応的アダプティブアグリゲーションのためのマルチスケール機能融合モジュールの3つの重要なイノベーションを取り入れている。
論文 参考訳(メタデータ) (2025-04-27T16:43:52Z) - Multi-Class Segmentation of Aortic Branches and Zones in Computed Tomography Angiography: The AortaSeg24 Challenge [55.252714550918824]
AortaSeg24 MICCAI Challengeは、23の臨床的に関連する大動脈枝と領域に注釈付き100 CTA巻の最初のデータセットを導入した。
本稿では,トップパフォーマンスアルゴリズムの課題設計,データセットの詳細,評価指標,詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-02-07T21:09:05Z) - Bridging Classification and Segmentation in Osteosarcoma Assessment via Foundation and Discrete Diffusion Models [3.2090645669282045]
パッチ分類と領域分割のギャップを埋める新しいフレームワークであるFDDMを紹介する。
FDDMは2つの段階で機能する: パッチベースの分類、次いでリージョンベースの改良により、クロスパッチ情報通信を可能にする。
このフレームワークは骨肉腫評価の新しいベンチマークを設定し、基礎モデルと拡散に基づく改善の可能性を強調している。
論文 参考訳(メタデータ) (2025-01-03T18:06:18Z) - MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - Class Attention to Regions of Lesion for Imbalanced Medical Image
Recognition [59.28732531600606]
データ不均衡問題に対処するため,textbfClass textbfAttention to textbfRegions of the lesion (CARE)を提案する。
CAREフレームワークは、まれな疾患の病変領域を表すために、バウンディングボックスを必要とする。
その結果,自動バウンディングボックス生成によるCARE変種は,オリジナルのCAREフレームワークに匹敵することがわかった。
論文 参考訳(メタデータ) (2023-07-19T15:19:02Z) - XVertNet: Unsupervised Contrast Enhancement of Vertebral Structures with Dynamic Self-Tuning Guidance and Multi-Stage Analysis [1.3584858315758948]
胸部X線は救急医療の主要な診断ツールであり続けているが、微細な解剖学的詳細を捉える能力に限界があるため、診断が遅れることがある。
XVertNetは,X線画像における脊椎構造の可視化を著しく向上するために設計された,新しいディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2023-06-06T19:36:11Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Anatomy X-Net: A Semi-Supervised Anatomy Aware Convolutional Neural
Network for Thoracic Disease Classification [3.888080947524813]
この研究は、解剖学的注意に基づくアーキテクチャAnatomy X-Netを提案する。
事前に同定された解剖学的領域によって導かれる空間的特徴を優先する。
提案手法は,AUCスコアが0.8439のNIHテストセットに対して,新しい最先端性能を設定できる。
論文 参考訳(メタデータ) (2021-06-10T17:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。