論文の概要: CNN-Based Ultrasound Image Reconstruction for Ultrafast Displacement
Tracking
- arxiv url: http://arxiv.org/abs/2009.01816v2
- Date: Mon, 21 Dec 2020 17:56:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:25:50.415226
- Title: CNN-Based Ultrasound Image Reconstruction for Ultrafast Displacement
Tracking
- Title(参考訳): CNNを用いた超高速変位追跡のための超音波画像再構成
- Authors: Dimitris Perdios, Manuel Vonlanthen, Florian Martinez, Marcel Arditi,
Jean-Philippe Thiran
- Abstract要約: 運動推定技術は、超高感度心血管運動や流れ解析、せん断波エラストグラフィーなどの応用に利用できる。
これらの動き推定手法で達成できる精度は、連続するフレームの高品質と高いフレームレートの2つの矛盾した要件に強く依存する。
提案手法は,高品質なフレームを再構築するための単一超高速取得と,2次元変位推定を行うための2つの連続フレームのみに依存する。
- 参考スコア(独自算出の注目度): 9.659642285903418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to its capability of acquiring full-view frames at multiple kilohertz,
ultrafast ultrasound imaging unlocked the analysis of rapidly changing physical
phenomena in the human body, with pioneering applications such as
ultrasensitive flow imaging in the cardiovascular system or shear-wave
elastography. The accuracy achievable with these motion estimation techniques
is strongly contingent upon two contradictory requirements: a high quality of
consecutive frames and a high frame rate. Indeed, the image quality can usually
be improved by increasing the number of steered ultrafast acquisitions, but at
the expense of a reduced frame rate and possible motion artifacts. To achieve
accurate motion estimation at uncompromised frame rates and immune to motion
artifacts, the proposed approach relies on single ultrafast acquisitions to
reconstruct high-quality frames and on only two consecutive frames to obtain
2-D displacement estimates. To this end, we deployed a convolutional neural
network-based image reconstruction method combined with a speckle tracking
algorithm based on cross-correlation. Numerical and in vivo experiments,
conducted in the context of plane-wave imaging, demonstrate that the proposed
approach is capable of estimating displacements in regions where the presence
of side lobe and grating lobe artifacts prevents any displacement estimation
with a state-of-the-art technique that relies on conventional delay-and-sum
beamforming. The proposed approach may therefore unlock the full potential of
ultrafast ultrasound, in applications such as ultrasensitive cardiovascular
motion and flow analysis or shear-wave elastography.
- Abstract(参考訳): 複数キロヘルツでフルビューフレームを取得する能力により、超高速超音波は人体で急速に変化する物理的現象の分析を解き、心血管系における超感度なフローイメージングやせん断波エラストグラフィーなどの先駆的な応用をもたらした。
これらの動き推定手法で達成できる精度は、連続フレームの高品質と高いフレームレートの2つの矛盾した要件に強く依存する。
実際、画像の質は、通常、ステアリングされた超高速な取得数を増やすことで向上できるが、フレームレートの低減と可能なモーションアーティファクトのコストがかかる。
提案手法は,非競合フレームレートでの高精度な動き推定と移動アーティファクトへの免疫を行うため,高品質なフレームを再構築するための単一超高速取得と,2つの連続フレームのみを用いて2次元変位推定を行う。
そこで我々は,畳み込みニューラルネットワークを用いた画像再構成手法と,クロス相関に基づくスペックル追跡アルゴリズムを併用した。
平面波イメージングの文脈で実施した数値解析およびin vivo実験により,従来の遅延・サマービームフォーミング技術を用いてサイドローブおよびグレーティングローブアーティファクトの存在がいかなる変位推定も妨げない領域における変位推定が可能であることを実証した。
提案手法は,超高感度心血管運動や血流解析,せん断波エラストグラフィなどの応用において,超高速超音波の潜在能力を最大限に活用することができる。
関連論文リスト
- Highly efficient non-rigid registration in k-space with application to cardiac Magnetic Resonance Imaging [10.618048010632728]
非剛性動作推定のためのローカル・オール・パス・アテンション・ネットワーク(LAPANet)と呼ばれる,自己教師型深層学習に基づく新しいフレームワークを提案する。
LAPANetは,種々のサンプリング軌跡と加速度速度で心運動推定を行った。
非剛性運動に対する高時間分解能(5ミリ秒未満)は、動的およびリアルタイムMRIアプリケーションにおける動きの検出、追跡、修正のための新しい道を開く。
論文 参考訳(メタデータ) (2024-10-24T15:19:59Z) - Attention-aware non-rigid image registration for accelerated MR imaging [10.47044784972188]
我々は,MRIの完全サンプリングと高速化のために,非厳密なペアワイズ登録を行うことのできる,注目に敏感なディープラーニングベースのフレームワークを提案する。
我々は、複数の解像度レベルで、登録された画像ペア間の類似性マップを構築するために、局所的な視覚表現を抽出する。
本モデルでは, 異なるサンプリング軌道にまたがって, 安定かつ一貫した運動場を導出することを示す。
論文 参考訳(メタデータ) (2024-04-26T14:25:07Z) - Real-Time Model-Based Quantitative Ultrasound and Radar [65.268245109828]
本稿では,波動伝搬の物理モデルに基づくニューラルネットワークを提案し,受信信号と物理特性の関係を定義した。
我々のネットワークは、複雑で現実的なシナリオのために、1秒未満で複数の物理的特性を再構築することができる。
論文 参考訳(メタデータ) (2024-02-16T09:09:16Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Dynamic super-resolution in particle tracking problems [7.66708492647561]
本研究では,粒子追跡問題における一般的な動的再構成による震源数,位置,速度の復元限界に対する厳密な数学的解析を行う。
粒子の位置-速度対が一定の距離を超えて分離されている場合、粒子の数と位置-速度対を安定して回収できることを示す。
この観測により, 粒子追跡の精度を向上する新たな再構成アルゴリズムが期待できる。
論文 参考訳(メタデータ) (2022-04-08T14:21:27Z) - Accelerated Intravascular Ultrasound Imaging using Deep Reinforcement
Learning [16.350568421800794]
血管内超音波(IVUS)は血管疾患の治療においてユニークな視点を提供する。
本稿では,現在の物理情報のボトルネックに対処するための深層強化学習について述べる。
論文 参考訳(メタデータ) (2022-01-24T08:33:21Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Deep Unfolded Recovery of Sub-Nyquist Sampled Ultrasound Image [94.42139459221784]
本稿では,ISTAアルゴリズムの展開に基づく時空間領域におけるサブNyquistサンプルからの再構成手法を提案する。
本手法は,高品質な撮像性能を確保しつつ,配列要素数,サンプリングレート,計算時間を削減できる。
論文 参考訳(メタデータ) (2021-03-01T19:19:38Z) - CNN-Based Image Reconstruction Method for Ultrafast Ultrasound Imaging [9.659642285903418]
超高速超音波(US)は、フルビューフレームを1kHz以上で取得できるバイオメディカルイメージングに革命をもたらした。
強い回折アーチファクトに悩まされ、主に格子状葉、サイドローブ、エッジウェーブによって引き起こされる。
本稿では,2段階の畳み込みニューラルネットワーク(CNN)を用いた画像再構成手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T17:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。