論文の概要: D'ARTAGNAN: Counterfactual Video Generation
- arxiv url: http://arxiv.org/abs/2206.01651v1
- Date: Fri, 3 Jun 2022 15:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:43:37.231390
- Title: D'ARTAGNAN: Counterfactual Video Generation
- Title(参考訳): D'ARTAGNAN: 対戦型ビデオ生成
- Authors: Hadrien Reynaud, Athanasios Vlontzos, Mischa Dombrowski, Ciar\'an Lee,
Arian Beqiri, Paul Leeson, Bernhard Kainz
- Abstract要約: 因果的対応の機械学習フレームワークは、臨床医がカウンターファクトの質問に答えることで、治療の最良のコースを特定するのに役立つ。
我々は、D'ARTAGNANを構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、および生成的敵法を初めて組み合わせる。
新しい超音波ビデオを生成し, 所定の入力に設定したエジェクション・フラクションのバリエーションを用いて, 元の患者の映像スタイルと解剖を保ちながら, 超音波ビデオを生成する。
- 参考スコア(独自算出の注目度): 3.4079278794252232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causally-enabled machine learning frameworks could help clinicians to
identify the best course of treatments by answering counterfactual questions.
We explore this path for the case of echocardiograms by looking into the
variation of the Left Ventricle Ejection Fraction, the most essential clinical
metric gained from these examinations. We combine deep neural networks, twin
causal networks and generative adversarial methods for the first time to build
D'ARTAGNAN (Deep ARtificial Twin-Architecture GeNerAtive Networks), a novel
causal generative model. We demonstrate the soundness of our approach on a
synthetic dataset before applying it to cardiac ultrasound videos by answering
the question: "What would this echocardiogram look like if the patient had a
different ejection fraction?". To do so, we generate new ultrasound videos,
retaining the video style and anatomy of the original patient, with variations
of the Ejection Fraction conditioned on a given input. We achieve an SSIM score
of 0.79 and an R2 score of 0.51 on the counterfactual videos. Code and models
are available at https://github.com/HReynaud/dartagnan.
- Abstract(参考訳): 因果的対応の機械学習フレームワークは、臨床医が対実的な質問に答えることで治療の最良のコースを特定するのに役立つ。
心エコー図の場合,左室射出率の変動について検討し,本検査で得られた最も重要な臨床指標である左室射出率の変化を検討した。
我々は、D'ARTAGNAN(Deep ARtificial Twin-Architecture GeNerAtive Networks)を構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、ジェネレーティブ逆行手法を初めて組み合わせた。
このエコー心電図は、患者が異なる放出率を持つ場合、どのように見えるか?」という疑問に答えることで、心エコービデオに適用する前に、合成データセットにアプローチの健全性を示す。
そこで我々は,所定の入力に条件付けされたEjection Fractionのバリエーションを用いて,患者のビデオスタイルと解剖を維持できる新しい超音波ビデオを生成する。
SSIMスコアは0.79、R2スコアは0.51となる。
コードとモデルはhttps://github.com/hreynaud/dartagnanで入手できる。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Automatic Cardiac Pathology Recognition in Echocardiography Images Using Higher Order Dynamic Mode Decomposition and a Vision Transformer for Small Datasets [2.0286377328378737]
心臓病は、人間の機能不全の主な原因だ。WHOによると、心臓病のために毎年約1800万人が死亡している。
本研究では,新しい深層学習フレームワークに基づく自動心臓病理診断システムを提案する。
論文 参考訳(メタデータ) (2024-04-30T14:16:45Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - SimLVSeg: Simplifying Left Ventricular Segmentation in 2D+Time Echocardiograms with Self- and Weakly-Supervised Learning [0.8672882547905405]
狭義の心エコービデオから一貫した左室(LV)セグメンテーションを行うビデオベースネットワークであるSimLVSegを開発した。
SimLVSegは、時間的マスキングによる自己教師付き事前トレーニングと、スパースアノテーションからのLVセグメンテーションに適した弱い教師付き学習で構成されている。
我々は、SimLVSegが、最大の2D+時間心エコー画像データセットで93.32%のダイススコアを達成して、最先端のソリューションをいかに優れているかを実証する。
論文 参考訳(メタデータ) (2023-09-30T18:13:41Z) - Hierarchical Vision Transformers for Cardiac Ejection Fraction
Estimation [0.0]
本稿では,階層型視覚変換器をベースとした深層学習手法を提案する。
提案手法は,まず左腹腔分画を必要とせずに吐出率を推定できるので,他の方法よりも効率がよい。
論文 参考訳(メタデータ) (2023-03-31T23:42:17Z) - Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis [5.102090025931326]
我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2$スコアを達成する。
論文 参考訳(メタデータ) (2023-03-22T15:26:22Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - An Algorithm for the Labeling and Interactive Visualization of the
Cerebrovascular System of Ischemic Strokes [59.116811751334225]
VirtualDSA++は、CTAスキャンで脳血管ツリーをセグメンテーションし、ラベル付けするために設計されたアルゴリズムである。
閉塞血管を同定するために,脳動脈のラベル付け機構を拡張した。
本稿では,そのモデルの全ノードにおける経路の反復的体系探索という一般的な概念を紹介し,新たな対話的特徴を実現する。
論文 参考訳(メタデータ) (2022-04-26T14:20:26Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Ultrasound Video Transformers for Cardiac Ejection Fraction Estimation [3.188100483042461]
本稿では,トークン分類に適応したResidual Auto-Encoder NetworkとBERTモデルを用いた超音波ビデオ解析手法を提案する。
本研究では,エンドシストリクス(ES)とエンドダイアストリクス(ED)のフレーム検出と左室放出率の自動計算に本モデルを適用した。
エンド・ツー・エンドの学習可能なアプローチでは、5.95のMAEと0.15秒で$R2$の0.52で射出率を推定できる。
論文 参考訳(メタデータ) (2021-07-02T11:23:09Z) - Neural collaborative filtering for unsupervised mitral valve
segmentation in echocardiography [60.08918310097638]
心エコービデオの低次元埋め込みに基づく僧帽弁断面積自動制御法を提案する。
本法は, 各種僧帽弁疾患患者の心エコービデオと, 独立した検査コホートを用いて評価した。
これは、低品質ビデオやスパースアノテーションの場合には、最先端のインハンサーとエンファンサーの手法より優れている。
論文 参考訳(メタデータ) (2020-08-13T12:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。