論文の概要: D'ARTAGNAN: Counterfactual Video Generation
- arxiv url: http://arxiv.org/abs/2206.01651v1
- Date: Fri, 3 Jun 2022 15:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:43:37.231390
- Title: D'ARTAGNAN: Counterfactual Video Generation
- Title(参考訳): D'ARTAGNAN: 対戦型ビデオ生成
- Authors: Hadrien Reynaud, Athanasios Vlontzos, Mischa Dombrowski, Ciar\'an Lee,
Arian Beqiri, Paul Leeson, Bernhard Kainz
- Abstract要約: 因果的対応の機械学習フレームワークは、臨床医がカウンターファクトの質問に答えることで、治療の最良のコースを特定するのに役立つ。
我々は、D'ARTAGNANを構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、および生成的敵法を初めて組み合わせる。
新しい超音波ビデオを生成し, 所定の入力に設定したエジェクション・フラクションのバリエーションを用いて, 元の患者の映像スタイルと解剖を保ちながら, 超音波ビデオを生成する。
- 参考スコア(独自算出の注目度): 3.4079278794252232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causally-enabled machine learning frameworks could help clinicians to
identify the best course of treatments by answering counterfactual questions.
We explore this path for the case of echocardiograms by looking into the
variation of the Left Ventricle Ejection Fraction, the most essential clinical
metric gained from these examinations. We combine deep neural networks, twin
causal networks and generative adversarial methods for the first time to build
D'ARTAGNAN (Deep ARtificial Twin-Architecture GeNerAtive Networks), a novel
causal generative model. We demonstrate the soundness of our approach on a
synthetic dataset before applying it to cardiac ultrasound videos by answering
the question: "What would this echocardiogram look like if the patient had a
different ejection fraction?". To do so, we generate new ultrasound videos,
retaining the video style and anatomy of the original patient, with variations
of the Ejection Fraction conditioned on a given input. We achieve an SSIM score
of 0.79 and an R2 score of 0.51 on the counterfactual videos. Code and models
are available at https://github.com/HReynaud/dartagnan.
- Abstract(参考訳): 因果的対応の機械学習フレームワークは、臨床医が対実的な質問に答えることで治療の最良のコースを特定するのに役立つ。
心エコー図の場合,左室射出率の変動について検討し,本検査で得られた最も重要な臨床指標である左室射出率の変化を検討した。
我々は、D'ARTAGNAN(Deep ARtificial Twin-Architecture GeNerAtive Networks)を構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、ジェネレーティブ逆行手法を初めて組み合わせた。
このエコー心電図は、患者が異なる放出率を持つ場合、どのように見えるか?」という疑問に答えることで、心エコービデオに適用する前に、合成データセットにアプローチの健全性を示す。
そこで我々は,所定の入力に条件付けされたEjection Fractionのバリエーションを用いて,患者のビデオスタイルと解剖を維持できる新しい超音波ビデオを生成する。
SSIMスコアは0.79、R2スコアは0.51となる。
コードとモデルはhttps://github.com/hreynaud/dartagnanで入手できる。
関連論文リスト
- Hierarchical Vision Transformers for Cardiac Ejection Fraction
Estimation [0.0]
本稿では,階層型視覚変換器をベースとした深層学習手法を提案する。
提案手法は,まず左腹腔分画を必要とせずに吐出率を推定できるので,他の方法よりも効率がよい。
論文 参考訳(メタデータ) (2023-03-31T23:42:17Z) - Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis [5.102090025931326]
我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2$スコアを達成する。
論文 参考訳(メタデータ) (2023-03-22T15:26:22Z) - EchoCoTr: Estimation of the Left Ventricular Ejection Fraction from
Spatiotemporal Echocardiography [0.0]
心エコー法などの医用ビデオデータのトレーニングにおいて,通常直面する限界に対処する手法を提案する。
超音波ビデオにおける左室放出率(LVEF)の推定に,視覚変換器とCNNの強度を利用するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-09T11:01:59Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - An Algorithm for the Labeling and Interactive Visualization of the
Cerebrovascular System of Ischemic Strokes [59.116811751334225]
VirtualDSA++は、CTAスキャンで脳血管ツリーをセグメンテーションし、ラベル付けするために設計されたアルゴリズムである。
閉塞血管を同定するために,脳動脈のラベル付け機構を拡張した。
本稿では,そのモデルの全ノードにおける経路の反復的体系探索という一般的な概念を紹介し,新たな対話的特徴を実現する。
論文 参考訳(メタデータ) (2022-04-26T14:20:26Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Ultrasound Video Transformers for Cardiac Ejection Fraction Estimation [3.188100483042461]
本稿では,トークン分類に適応したResidual Auto-Encoder NetworkとBERTモデルを用いた超音波ビデオ解析手法を提案する。
本研究では,エンドシストリクス(ES)とエンドダイアストリクス(ED)のフレーム検出と左室放出率の自動計算に本モデルを適用した。
エンド・ツー・エンドの学習可能なアプローチでは、5.95のMAEと0.15秒で$R2$の0.52で射出率を推定できる。
論文 参考訳(メタデータ) (2021-07-02T11:23:09Z) - Noise-Resilient Automatic Interpretation of Holter ECG Recordings [67.59562181136491]
本稿では,ホルター記録を雑音に頑健に解析する3段階プロセスを提案する。
第1段階は、心拍位置を検出する勾配デコーダアーキテクチャを備えたセグメンテーションニューラルネットワーク(NN)である。
第2段階は、心拍を幅または幅に分類する分類NNである。
第3のステージは、NN機能の上に、患者対応機能を組み込んだ強化決定木(GBDT)である。
論文 参考訳(メタデータ) (2020-11-17T16:15:49Z) - End-to-End Deep Learning Model for Cardiac Cycle Synchronization from
Multi-View Angiographic Sequences [3.4377441151536376]
異なるビューの時間的マッチングは、同時に取得されない可能性があるが、冠動脈セグメントの正確なステレオマッチングの前提条件である。
心臓循環中に異なる視点を同期させるため、血管造影シークエンスからニューラルネットワークをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2020-09-04T18:11:50Z) - Neural collaborative filtering for unsupervised mitral valve
segmentation in echocardiography [60.08918310097638]
心エコービデオの低次元埋め込みに基づく僧帽弁断面積自動制御法を提案する。
本法は, 各種僧帽弁疾患患者の心エコービデオと, 独立した検査コホートを用いて評価した。
これは、低品質ビデオやスパースアノテーションの場合には、最先端のインハンサーとエンファンサーの手法より優れている。
論文 参考訳(メタデータ) (2020-08-13T12:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。