論文の概要: Reducing the X-ray radiation exposure frequency in cardio-angiography
via deep-learning based video interpolation
- arxiv url: http://arxiv.org/abs/2006.00781v1
- Date: Mon, 1 Jun 2020 08:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:34:13.160563
- Title: Reducing the X-ray radiation exposure frequency in cardio-angiography
via deep-learning based video interpolation
- Title(参考訳): 深層学習による心血管造影におけるX線照射頻度の低減
- Authors: Xiao-Lei Yin, Dong-Xue Liang, Lu Wang, Jing Qiu, Zhi-Yun Yang, Jun-Hui
Xing, Jian-Zeng Dong and Zhao-Yuan Ma
- Abstract要約: 高フレームレートで冠動脈造影ビデオを得るには、医師はX線の露出頻度と強度を高める必要がある。
本研究では,深層学習に基づく画像データセットアルゴリズムを革新的に利用し,冠動脈造影ビデオの補間を行う。
- 参考スコア(独自算出の注目度): 4.722039838364292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cardiac coronary angiography is a major technology to assist doctors during
cardiac interventional surgeries. Under the exposure of X-ray radiation,
doctors inject contrast agents through catheters to determine the position and
status of coronary vessels in real time. To get a coronary angiography video
with a high frame rate, the doctor needs to increase the exposure frequency and
intensity of the X-ray. This will inevitably increase the X-ray harm to both
patients and surgeons. In this work, we innovatively utilize a deep-learning
based video interpolation algorithm to interpolate coronary angiography videos.
Moreover, we establish a new coronary angiography image dataset ,which contains
95,039 triplets images to retrain the video interpolation network model. Using
the retrained network we synthesize high frame rate coronary angiography video
from the low frame rate coronary angiography video. The average peak signal to
noise ratio(PSNR) of those synthesized video frames reaches 34dB. Extensive
experiment results demonstrate the feasibility of using the video frame
interpolation algorithm to synthesize continuous and clear high frame rate
coronary angiography video. With the help of this technology, doctors can
significantly reduce exposure frequency and intensity of the X-ray during
coronary angiography.
- Abstract(参考訳): 心臓冠動脈造影は、心臓外科手術中の医師を支援する主要な技術である。
x線照射により、医師はカテーテルを通して造影剤を注入し、冠動脈の位置と状態をリアルタイムで決定する。
高フレームレートで冠動脈造影ビデオを得るには、医師はX線の露出頻度と強度を高める必要がある。
これにより、患者と外科医の両方に対するx線障害が必然的に増大する。
本研究では,深層学習に基づくビデオ補間アルゴリズムを用いて,冠動脈造影ビデオの補間を行う。
さらに,95,039個のトリプレット画像を含む新しい冠動脈造影画像データセットを構築し,ビデオ補間ネットワークモデルの再訓練を行った。
再訓練されたネットワークを用いて低フレームレート冠動脈造影ビデオから高フレームレート冠動脈造影ビデオを合成する。
これらの合成ビデオフレームの平均ピーク信号対ノイズ比(PSNR)は34dBに達する。
ビデオフレーム補間アルゴリズムを用いて, 連続的かつ明瞭な高フレーム速度冠動脈造影ビデオの合成が可能であった。
この技術により、医師は冠動脈造影中のX線被曝頻度と強度を著しく低減することができる。
関連論文リスト
- Epicardium Prompt-guided Real-time Cardiac Ultrasound Frame-to-volume Registration [50.602074919305636]
本稿では,CU-Reg と呼ばれる,軽量でエンドツーエンドなカード・ツー・エンド・超音波フレーム・ツー・ボリューム・レジストレーション・ネットワークを提案する。
2次元スパースと3次元濃密な特徴の相互作用を増強するために,心内膜急速ガイドによる解剖学的手がかりを用い,その後,強化された特徴のボクセル的局所グロバル集約を行った。
論文 参考訳(メタデータ) (2024-06-20T17:47:30Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Motion Magnification in Robotic Sonography: Enabling Pulsation-Aware
Artery Segmentation [44.868281669589194]
スキャン中の動脈セグメンテーションの精度と安定性を改善するために,新しい脈動補助セグメンテーションニューラルネットワーク(PAS-NN)を提案する。
興味のある周波数帯域内の微妙な動きを増幅し、連続したUS画像から脈動信号を抽出するために、運動倍率技術を用いる。
抽出したリアルタイム脈動情報は、米国横断画像の動脈を見つけるのに役立つ。
論文 参考訳(メタデータ) (2023-07-07T16:14:17Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - X-ray Dissectography Enables Stereotography to Improve Diagnostic
Performance [5.357314252311141]
少ない放射線投影から対象臓器・組織をデジタル的に抽出する「X線ディストモグラフィー」を提案する。
実験により、X線ステレオグラフィーは肺のような孤立した臓器で達成できることが示された。
X線ディストモグラフィーは、放射線線量とシステムコストにおけるCTグレード診断のための新しいX線画像モダリティを、放射線画像やトモシンセティックイメージングに匹敵する、と約束している。
論文 参考訳(メタデータ) (2021-11-30T00:31:59Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - End-to-End Deep Learning Model for Cardiac Cycle Synchronization from
Multi-View Angiographic Sequences [3.4377441151536376]
異なるビューの時間的マッチングは、同時に取得されない可能性があるが、冠動脈セグメントの正確なステレオマッチングの前提条件である。
心臓循環中に異なる視点を同期させるため、血管造影シークエンスからニューラルネットワークをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2020-09-04T18:11:50Z) - Coronary Artery Segmentation in Angiographic Videos Using A 3D-2D CE-Net [4.722039838364292]
本稿では,最も鮮明で包括的な冠状血管造影像をビデオシーケンスから抽出できる新しいビデオセグメンテーションフレームワークを提案する。
入力は、血管造影ビデオの連続したフレームであり、出力はセグメンテーション結果のマスクである。
論文 参考訳(メタデータ) (2020-03-26T11:56:17Z) - Dynamic Coronary Roadmapping via Catheter Tip Tracking in X-ray
Fluoroscopy with Deep Learning Based Bayesian Filtering [4.040013871160853]
経皮的冠動脈インターベンション (PCI) は, 冠動脈造影にX線不透明造影剤を併用したX線アンギオグラムを用いて画像誘導を行うのが一般的である。
本報告では、視覚フィードバックを改善し、PCIにおけるコントラスト使用を減らすために、新しい動的冠ロードマップ作成手法の開発について述べる。
特に,カテーテル先端の高精度かつロバストな追跡のために,畳み込みニューラルネットワークの検出結果と,粒子フィルタリングフレームワークを用いたフレーム間の運動推定を統合した,深層学習に基づくベイズフィルタリング手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T22:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。