論文の概要: TGV: Tabular Data-Guided Learning of Visual Cardiac Representations
- arxiv url: http://arxiv.org/abs/2503.14998v1
- Date: Wed, 19 Mar 2025 08:49:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:23:34.844315
- Title: TGV: Tabular Data-Guided Learning of Visual Cardiac Representations
- Title(参考訳): TGV: 視覚的心臓表現のタブラルデータガイド学習
- Authors: Marta Hasny, Maxime Di Folco, Keno Bressem, Julia Schnabel,
- Abstract要約: 医用画像では、1回のスキャンで複数の拡張を行うのではなく、患者全体を異なる表現型と比較することが多い。
臨床的に関連のある表型データを用いて、異なる患者表現型を特定し、より有意義なペアを形成することを提案する。
短軸心MR画像と英国バイオバンクの臨床的特性を用いて,その強度を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Contrastive learning methods in computer vision typically rely on different views of the same image to form pairs. However, in medical imaging, we often seek to compare entire patients with different phenotypes rather than just multiple augmentations of one scan. We propose harnessing clinically relevant tabular data to identify distinct patient phenotypes and form more meaningful pairs in a contrastive learning framework. Our method uses tabular attributes to guide the training of visual representations, without requiring a joint embedding space. We demonstrate its strength using short-axis cardiac MR images and clinical attributes from the UK Biobank, where tabular data helps to more effectively distinguish between patient subgroups. Evaluation on downstream tasks, including fine-tuning and zero-shot prediction of cardiovascular artery diseases and cardiac phenotypes, shows that incorporating tabular data yields stronger visual representations than conventional methods that rely solely on image augmentations or combined image-tabular embeddings. Furthermore, we demonstrate that image encoders trained with tabular guidance are capable of embedding demographic information in their representations, allowing them to use insights from tabular data for unimodal predictions, making them well-suited to real-world medical settings where extensive clinical annotations may not be routinely available at inference time. The code will be available on GitHub.
- Abstract(参考訳): コンピュータビジョンにおけるコントラスト学習法は、通常、ペアを形成するために同じイメージの異なるビューに依存する。
しかし、医用画像では、1回のスキャンで複数の拡張を行うのではなく、患者全体を異なる表現型と比較することが多い。
臨床に関連のある表型データを用いて、異なる患者表現型を特定し、対照的な学習枠組みにおいてより有意義なペアを形成することを提案する。
本手法では,共同埋め込み空間を必要とせず,図形属性を用いて視覚表現の訓練を指導する。
本研究は,短軸心MR画像とUK Biobankの臨床的特性を用いて,その強度を実証するものである。
心血管疾患や心臓の表現型を微調整・ゼロショットで予測するなどの下流課題の評価では、表層データを組み込むことで、画像強化や画像-タブラル埋め込みの組み合わせにのみ依存する従来の方法よりも強力な視覚表現が得られることが示されている。
さらに,表型指導で訓練された画像エンコーダは,その表現に人口統計情報を埋め込むことができ,表型データからの洞察を一過性の予測に利用でき,広範囲な臨床診断が日常的に利用できない現実世界の医療環境に適していることを示す。
コードはGitHubで入手できる。
関連論文リスト
- Barttender: An approachable & interpretable way to compare medical imaging and non-imaging data [0.13406576408866772]
Barttenderは、画像の有効性と、病気の予測のようなタスクの非画像データの比較にディープラーニングを使用する解釈可能なフレームワークである。
本フレームワークでは,局所的な(サンプルレベルの)説明やグローバルな(人口レベルの)説明だけでなく,パフォーマンス測定による実用性の違いを評価することができる。
論文 参考訳(メタデータ) (2024-11-19T18:22:25Z) - Predicting Stroke through Retinal Graphs and Multimodal Self-supervised Learning [0.46835339362676565]
脳卒中の早期発見は介入に不可欠であり、信頼できるモデルを必要とする。
臨床情報とともに効率的な網膜像表現法を提案し,心血管の健康状態の包括的把握を試みた。
論文 参考訳(メタデータ) (2024-11-08T14:40:56Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Multimodal brain age estimation using interpretable adaptive
population-graph learning [58.99653132076496]
下流タスクに最適化された人口グラフ構造を学習するフレームワークを提案する。
注意機構は、画像と非画像の特徴のセットに重みを割り当てる。
グラフ構築において最も重要な注意重みを可視化することにより、グラフの解釈可能性を高める。
論文 参考訳(メタデータ) (2023-07-10T15:35:31Z) - Best of Both Worlds: Multimodal Contrastive Learning with Tabular and
Imaging Data [7.49320945341034]
単調エンコーダを学習するための自己指導型コントラスト学習フレームワークを提案する。
我々のソリューションは、2つの主要なコントラスト学習戦略であるSimCLRとSCARFを組み合わせています。
DVMカー広告データセットを用いて,自然画像へのアプローチの一般化可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T15:44:42Z) - Lesion-based Contrastive Learning for Diabetic Retinopathy Grading from
Fundus Images [2.498907460918493]
糖尿病網膜症自動評価のための自己教師型フレームワーク,すなわち病変に基づくコントラスト学習を提案する。
提案フレームワークは,リニア評価と転送容量評価の両方の観点から,DRグレーディングを際立たせる。
論文 参考訳(メタデータ) (2021-07-17T16:30:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images [21.23065972218941]
2段階の自己監督型表現学習目標を備えた新しいアプローチを紹介します。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
我々のモデルは、画像中の臨床的に関連のある領域を識別できる。
論文 参考訳(メタデータ) (2020-12-11T16:26:07Z) - Dynamic Graph Correlation Learning for Disease Diagnosis with Incomplete
Labels [66.57101219176275]
胸部X線画像上の疾患診断は,多ラベル分類の課題である。
本稿では,異なる疾患間の相互依存を調査する新たな視点を提示する病的診断グラフ畳み込みネットワーク(DD-GCN)を提案する。
本手法は,相関学習のための動的隣接行列を用いた特徴写像上のグラフを初めて構築する手法である。
論文 参考訳(メタデータ) (2020-02-26T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。