論文の概要: Ultra-NeRF: Neural Radiance Fields for Ultrasound Imaging
- arxiv url: http://arxiv.org/abs/2301.10520v2
- Date: Tue, 11 Apr 2023 08:16:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 18:21:38.554826
- Title: Ultra-NeRF: Neural Radiance Fields for Ultrasound Imaging
- Title(参考訳): Ultra-NeRF: 超音波イメージングのためのニューラルラジアンス場
- Authors: Magdalena Wysocki, Mohammad Farid Azampour, Christine Eilers, Benjamin
Busam, Mehrdad Salehi, Nassir Navab
- Abstract要約: 超音波(US)イメージングのための物理強調型暗黙神経表現法(INR)を提案する。
提案手法は, レイトレーシングに基づくニューラルレンダリングを新しいビューUS合成に活用する。
- 参考スコア(独自算出の注目度): 40.72047687523214
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present a physics-enhanced implicit neural representation (INR) for
ultrasound (US) imaging that learns tissue properties from overlapping US
sweeps. Our proposed method leverages a ray-tracing-based neural rendering for
novel view US synthesis. Recent publications demonstrated that INR models could
encode a representation of a three-dimensional scene from a set of
two-dimensional US frames. However, these models fail to consider the
view-dependent changes in appearance and geometry intrinsic to US imaging. In
our work, we discuss direction-dependent changes in the scene and show that a
physics-inspired rendering improves the fidelity of US image synthesis. In
particular, we demonstrate experimentally that our proposed method generates
geometrically accurate B-mode images for regions with ambiguous representation
owing to view-dependent differences of the US images. We conduct our
experiments using simulated B-mode US sweeps of the liver and acquired US
sweeps of a spine phantom tracked with a robotic arm. The experiments
corroborate that our method generates US frames that enable consistent volume
compounding from previously unseen views. To the best of our knowledge, the
presented work is the first to address view-dependent US image synthesis using
INR.
- Abstract(参考訳): 本稿では,超音波(us)イメージングのための物理的に強調された暗黙的神経表現(inr)について述べる。
提案手法は, レイトレーシングに基づくニューラルレンダリングを新しいビューUS合成に活用する。
最近の出版物は、INRモデルが2次元USフレームの集合から3次元シーンの表現を符号化できることを示した。
しかし,これらのモデルでは画像に固有の外観や形状の変化は考慮されていない。
本研究では,映像の方向依存的変化を議論し,物理に触発されたレンダリングが映像合成の忠実性を向上させることを示す。
特に,提案手法が,米国画像の視点依存性による曖昧な表現領域に対して,幾何学的に高精度なbモード画像を生成することを実験的に証明した。
シミュレーションしたBモードUSスイープを用いて実験を行い、ロボットアームで追跡した脊椎ファントムのUSスイープを取得しました。
実験により,従来は見つからなかったビューから一貫した体積合成が可能なUSフレームを生成することが確認された。
我々の知る限りでは、INRを用いたビュー依存US画像合成に最初に取り組む研究である。
関連論文リスト
- Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Single-subject Multi-contrast MRI Super-resolution via Implicit Neural
Representations [9.683341998041634]
Inlicit Neural Representations (INR) は連続空間関数における相補的視点の2つの異なるコントラストを学習することを提案した。
我々のモデルは、3つのデータセットを用いた実験において、異なるコントラストのペア間で現実的な超解像を提供する。
論文 参考訳(メタデータ) (2023-03-27T10:18:42Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Sketch guided and progressive growing GAN for realistic and editable
ultrasound image synthesis [12.32829386817706]
本稿では,GANに基づく画像合成フレームワークを提案する。
我々は,高解像度でカスタマイズされたテクスチャ編集機能により,現実的なBモードUS画像を合成できる最初の作品を紹介する。
さらに、生成画像と実画像の高レベル特徴の差を最小限に抑えるために、特徴損失を提案する。
論文 参考訳(メタデータ) (2022-04-14T12:50:18Z) - Image-Guided Navigation of a Robotic Ultrasound Probe for Autonomous
Spinal Sonography Using a Shadow-aware Dual-Agent Framework [35.17207004351791]
本稿では,強化学習エージェントと深層学習エージェントを統合した新しいデュアルエージェントフレームワークを提案する。
提案手法は,US画像を効果的に解釈し,プローブをナビゲートすることで,脊椎の複数の標準視像を取得できる。
論文 参考訳(メタデータ) (2021-11-03T12:11:27Z) - Self-Supervised Ultrasound to MRI Fetal Brain Image Synthesis [20.53251934808636]
胎児脳MRI(Fetal brain magnetic resonance imaging)は、発達する脳の精細な画像を提供するが、第2三期異常検診には適さない。
本稿では,臨床用US画像から直接MRライクな画像を生成することを提案する。
提案するモデルは、外部アノテーションを使わずに、エンドツーエンドでトレーニング可能で自己管理できる。
論文 参考訳(メタデータ) (2020-08-19T22:56:36Z) - Screen Tracking for Clinical Translation of Live Ultrasound Image
Analysis Methods [2.5805793749729857]
提案手法は,ソノグラフィの視点に固定されたカメラで画面を追跡し,撮影画像を適切なアスペクト比に再構成することで,米国内の画像をキャプチャする。
これにより、取得した画像を画像処理パイプラインに入力して、検査を改善するのに役立つ情報を抽出できるという仮説が立てられている。
この情報は、例えば拡張現実(AR)ヘッドセットを使って、音像師の視界にリアルタイムで投影される。
論文 参考訳(メタデータ) (2020-07-13T09:53:20Z) - NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis [78.5281048849446]
本稿では,複雑なシーンの新たなビューを合成する手法を提案する。
提案アルゴリズムは,完全接続型(非畳み込み型)深層ネットワークを用いたシーンを表現する。
ボリュームレンダリングは自然に微分可能であるため、表現を最適化するのに必要な唯一の入力は、既知のカメラポーズを持つ画像の集合である。
論文 参考訳(メタデータ) (2020-03-19T17:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。