論文の概要: Temporal Context Matters: Enhancing Single Image Prediction with Disease
Progression Representations
- arxiv url: http://arxiv.org/abs/2203.01933v1
- Date: Wed, 2 Mar 2022 22:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:45:55.752466
- Title: Temporal Context Matters: Enhancing Single Image Prediction with Disease
Progression Representations
- Title(参考訳): 時間的文脈:病気の進行表現による単一画像予測の強化
- Authors: Aishik Konwer, Xuan Xu, Joseph Bae, Chao Chen, Prateek Prasanna
- Abstract要約: 本稿では,時間経過情報を活用した深層学習手法を提案する。
本手法では, 自己注意に基づく時間的畳み込みネットワーク(TCN)を用いて, 疾患の軌跡を最も反映した表現を学習する。
ビジョン変換器は、単点画像から特徴を抽出するために、自己教師型で事前訓練される。
- 参考スコア(独自算出の注目度): 8.396615243014768
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clinical outcome or severity prediction from medical images has largely
focused on learning representations from single-timepoint or snapshot scans. It
has been shown that disease progression can be better characterized by temporal
imaging. We therefore hypothesized that outcome predictions can be improved by
utilizing the disease progression information from sequential images. We
present a deep learning approach that leverages temporal progression
information to improve clinical outcome predictions from single-timepoint
images. In our method, a self-attention based Temporal Convolutional Network
(TCN) is used to learn a representation that is most reflective of the disease
trajectory. Meanwhile, a Vision Transformer is pretrained in a self-supervised
fashion to extract features from single-timepoint images. The key contribution
is to design a recalibration module that employs maximum mean discrepancy loss
(MMD) to align distributions of the above two contextual representations. We
train our system to predict clinical outcomes and severity grades from
single-timepoint images. Experiments on chest and osteoarthritis radiography
datasets demonstrate that our approach outperforms other state-of-the-art
techniques.
- Abstract(参考訳): 医療画像からの臨床結果または重症度予測は、主にシングルタイムポイントまたはスナップショットスキャンからの学習表現に焦点を当てている。
病状進行は側頭葉画像でよりよく観察できることが示されている。
そこで我々は, シーケンシャル画像の病状進行情報を利用して, 結果予測を改善することができると仮定した。
本稿では, 時間経過情報を活用し, 単点画像からの予後予測を改善するための深層学習手法を提案する。
本手法では,自己注意に基づく時間的畳み込みネットワーク(TCN)を用いて,疾患の軌跡を最も反映した表現を学習する。
一方、視覚トランスフォーマーは自己教師方式で事前訓練され、シングルタイムポイント画像から特徴を抽出する。
鍵となる貢献は、上記の2つの文脈表現の分布を調整するのに最大平均不一致損失(mmd)を使用する再調整モジュールを設計することである。
単点画像から臨床結果と重症度を予測できるシステムを構築した。
胸部および変形性関節症x線画像データを用いた実験により,我々のアプローチは他の最先端技術よりも優れていることが示された。
関連論文リスト
- Predicting Stroke through Retinal Graphs and Multimodal Self-supervised Learning [0.46835339362676565]
脳卒中の早期発見は介入に不可欠であり、信頼できるモデルを必要とする。
臨床情報とともに効率的な網膜像表現法を提案し,心血管の健康状態の包括的把握を試みた。
論文 参考訳(メタデータ) (2024-11-08T14:40:56Z) - ST-NeRP: Spatial-Temporal Neural Representation Learning with Prior Embedding for Patient-specific Imaging Study [16.383405461343678]
患者固有の画像研究のための先行埋め込み(ST-NeRP)を用いた時空間ニューラル表現学習の戦略を提案する。
我々の戦略は、インプシットニューラル表現(INR)ネットワークを利用して参照時点の画像を事前の埋め込みにエンコードすることである。
このネットワークは、患者固有の画像シーケンス全体を用いてトレーニングされ、様々な目標時点における変形場の予測を可能にする。
論文 参考訳(メタデータ) (2024-10-25T03:33:17Z) - Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - PIE: Simulating Disease Progression via Progressive Image Editing [27.658116659009025]
プログレッシブイメージ編集(PIE)は、疾患に関連する画像の特徴を制御できる。
我々は、テキスト・ツー・イメージ生成モデルの最近の進歩を活用して、疾患の進行を正確にシミュレートし、各患者にパーソナライズする。
PIEは、現実世界の標準に適合した疾患進行画像を生成する最初の企業である。
論文 参考訳(メタデータ) (2023-09-21T02:46:32Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Metadata-enhanced contrastive learning from retinal optical coherence tomography images [7.932410831191909]
従来のコントラストフレームワークを新しいメタデータ強化戦略で拡張する。
本手法では,画像間のコントラスト関係の真のセットを近似するために,患者メタデータを広く活用する。
提案手法は、6つの画像レベル下流タスクのうち5つにおいて、標準コントラスト法と網膜画像基盤モデルの両方に優れる。
論文 参考訳(メタデータ) (2022-08-04T08:53:15Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。