論文の概要: Towards Predicting Temporal Changes in a Patient's Chest X-ray Images based on Electronic Health Records
- arxiv url: http://arxiv.org/abs/2409.07012v1
- Date: Wed, 11 Sep 2024 04:49:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 15:36:35.552330
- Title: Towards Predicting Temporal Changes in a Patient's Chest X-ray Images based on Electronic Health Records
- Title(参考訳): 電子健康記録に基づく胸部X線画像の経時的変化予測に向けて
- Authors: Daeun Kyung, Junu Kim, Tackeun Kim, Edward Choi,
- Abstract要約: 本稿では,従来のCXRとその後の医療イベントを統合することで,将来のCXR画像を予測する新しいフレームワークであるEHRXDiffを提案する。
我々のフレームワークは、時間的変化を捉えた高品質で現実的な未来像を生成することを実証する。
これは、医療分野における患者のモニタリングと治療計画に有用な洞察を与える可能性がある。
- 参考スコア(独自算出の注目度): 9.398163873685798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chest X-ray imaging (CXR) is an important diagnostic tool used in hospitals to assess patient conditions and monitor changes over time. Generative models, specifically diffusion-based models, have shown promise in generating realistic synthetic X-rays. However, these models mainly focus on conditional generation using single-time-point data, i.e., typically CXRs taken at a specific time with their corresponding reports, limiting their clinical utility, particularly for capturing temporal changes. To address this limitation, we propose a novel framework, EHRXDiff, which predicts future CXR images by integrating previous CXRs with subsequent medical events, e.g., prescriptions, lab measures, etc. Our framework dynamically tracks and predicts disease progression based on a latent diffusion model, conditioned on the previous CXR image and a history of medical events. We comprehensively evaluate the performance of our framework across three key aspects, including clinical consistency, demographic consistency, and visual realism. We demonstrate that our framework generates high-quality, realistic future images that capture potential temporal changes, suggesting its potential for further development as a clinical simulation tool. This could offer valuable insights for patient monitoring and treatment planning in the medical field.
- Abstract(参考訳): 胸部X線画像(CXR)は、患者の状態を評価し、経時変化を監視するために病院で使用される重要な診断ツールである。
生成モデル、特に拡散モデルは、現実的な合成X線を生成することを約束している。
しかしながら、これらのモデルは、主に単一時間点データ(典型的には、対応する報告で特定のタイミングで取られるCXR)を使用して条件生成に焦点を当て、臨床効果を制限し、特に時間的変化を捉えている。
この制限に対処するため,従来のCXRとその後の医療イベント,例えば処方、検査などを統合することで,将来のCXR画像を予測する新しいフレームワークであるEHRXDiffを提案する。
本フレームワークは, これまでのCXR画像と医療イベントの履歴に基づいて, 潜伏拡散モデルに基づいて, 疾患の進行を動的に追跡・予測する。
我々は,臨床の整合性,人口動態の整合性,視覚リアリズムの3つの重要な側面を網羅的に評価した。
本研究は, 時間的変化を捉えた高品質で現実的な将来像を創出し, 臨床シミュレーションツールとしてのさらなる発展の可能性を示すものである。
これは、医療分野における患者のモニタリングと治療計画に有用な洞察を与える可能性がある。
関連論文リスト
- Addressing Asynchronicity in Clinical Multimodal Fusion via Individualized Chest X-ray Generation [14.658627367126009]
本稿では,胸部X線像の最新の画像表現を動的に生成するDDL-CXRを提案する。
提案手法は,従来のCXR画像とERH時系列を戦略的に条件付けした患者特異的生成のための潜時拡散モデルを利用する。
MIMICデータセットを用いた実験は、提案モデルがマルチモーダル融合における非同期性に効果的に対応し、既存の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2024-10-23T14:34:39Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - PIE: Simulating Disease Progression via Progressive Image Editing [27.658116659009025]
プログレッシブイメージ編集(PIE)は、疾患に関連する画像の特徴を制御できる。
我々は、テキスト・ツー・イメージ生成モデルの最近の進歩を活用して、疾患の進行を正確にシミュレートし、各患者にパーソナライズする。
PIEは、現実世界の標準に適合した疾患進行画像を生成する最初の企業である。
論文 参考訳(メタデータ) (2023-09-21T02:46:32Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Vision-Language Generative Model for View-Specific Chest X-ray Generation [18.347723213970696]
ViewXGenは、フロントビュー胸部X線を生成する既存のメソッドの制限を克服するように設計されている。
提案手法は, データセット内の多様な視線位置を考慮し, 特定の視線を用いた胸部X線の生成を可能にする。
論文 参考訳(メタデータ) (2023-02-23T17:13:25Z) - Improving Chest X-Ray Classification by RNN-based Patient Monitoring [0.34998703934432673]
我々は、診断に関する情報がCNNに基づく画像分類モデルを改善する方法について分析する。
追加の患者履歴情報に基づいてトレーニングされたモデルが、情報のないトレーニングを受けたモデルよりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-10-28T11:47:15Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Evaluating the Clinical Realism of Synthetic Chest X-Rays Generated
Using Progressively Growing GANs [0.0]
胸部X線は多くの患者のワークアップに欠かせない道具である。
新たな診断ツールを開発するためには,ラベル付きデータの量を増やす必要がある。
これまでの研究は、イメージを合成してトレーニングデータを増強するクラス固有のGANを作成することで、これらの問題に対処しようとしてきた。
論文 参考訳(メタデータ) (2020-10-07T11:47:22Z) - Learning Dynamic and Personalized Comorbidity Networks from Event Data
using Deep Diffusion Processes [102.02672176520382]
コンコルビンド病は、個人によって異なる複雑な時間的パターンを通じて発生し進行する。
電子的な健康記録では、患者が持つ異なる疾患を観察できるが、それぞれの共死状態の時間的関係を推測できるだけである。
我々は「ダイナミック・コオービディティ・ネットワーク」をモデル化するための深層拡散プロセスを開発する。
論文 参考訳(メタデータ) (2020-01-08T15:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。