論文の概要: ST-NeRP: Spatial-Temporal Neural Representation Learning with Prior Embedding for Patient-specific Imaging Study
- arxiv url: http://arxiv.org/abs/2410.19283v1
- Date: Fri, 25 Oct 2024 03:33:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:20.700737
- Title: ST-NeRP: Spatial-Temporal Neural Representation Learning with Prior Embedding for Patient-specific Imaging Study
- Title(参考訳): ST-NeRP:患者固有の画像研究のための事前埋め込みを用いた時空間ニューラル表現学習
- Authors: Liang Qiu, Liyue Shen, Lianli Liu, Junyan Liu, Yizheng Chen, Lei Xing,
- Abstract要約: 患者固有の画像研究のための先行埋め込み(ST-NeRP)を用いた時空間ニューラル表現学習の戦略を提案する。
我々の戦略は、インプシットニューラル表現(INR)ネットワークを利用して参照時点の画像を事前の埋め込みにエンコードすることである。
このネットワークは、患者固有の画像シーケンス全体を用いてトレーニングされ、様々な目標時点における変形場の予測を可能にする。
- 参考スコア(独自算出の注目度): 16.383405461343678
- License:
- Abstract: During and after a course of therapy, imaging is routinely used to monitor the disease progression and assess the treatment responses. Despite of its significance, reliably capturing and predicting the spatial-temporal anatomic changes from a sequence of patient-specific image series presents a considerable challenge. Thus, the development of a computational framework becomes highly desirable for a multitude of practical applications. In this context, we propose a strategy of Spatial-Temporal Neural Representation learning with Prior embedding (ST-NeRP) for patient-specific imaging study. Our strategy involves leveraging an Implicit Neural Representation (INR) network to encode the image at the reference time point into a prior embedding. Subsequently, a spatial-temporally continuous deformation function is learned through another INR network. This network is trained using the whole patient-specific image sequence, enabling the prediction of deformation fields at various target time points. The efficacy of the ST-NeRP model is demonstrated through its application to diverse sequential image series, including 4D CT and longitudinal CT datasets within thoracic and abdominal imaging. The proposed ST-NeRP model exhibits substantial potential in enabling the monitoring of anatomical changes within a patient throughout the therapeutic journey.
- Abstract(参考訳): 治療の経過中、画像は疾患の進行を監視し、治療反応を評価するために日常的に使用される。
その重要性にもかかわらず、患者固有の画像系列からの空間的時間的解剖学的変化を確実に把握し、予測することは、大きな課題である。
このように、計算フレームワークの開発は、多くの実用アプリケーションにとって非常に望ましいものとなっている。
本稿では,患者固有の画像研究のための先行埋め込み(ST-NeRP)を用いた空間時間ニューラル表現学習の戦略を提案する。
我々の戦略は、インプシットニューラル表現(INR)ネットワークを利用して参照時点の画像を事前の埋め込みにエンコードすることである。
その後、別のINRネットワークを介して時空間連続変形関数を学習する。
このネットワークは、患者固有の画像シーケンス全体を用いてトレーニングされ、様々な目標時点における変形場の予測を可能にする。
ST-NeRPモデルの有効性は,胸部・腹部画像における4次元CTおよび縦CTデータセットを含む多種多様な画像系列に適用することで実証される。
提案したST-NeRPモデルでは,治療経過を通じて患者の解剖学的変化のモニタリングが可能となる可能性が示唆された。
関連論文リスト
- Unifying Subsampling Pattern Variations for Compressed Sensing MRI with Neural Operators [72.79532467687427]
圧縮センシングMRI(Compressed Sensing MRI)は、身体の内部解剖像をアンダーサンプルと圧縮された測定値から再構成する。
ディープニューラルネットワークは、高度にアンサンプされた測定結果から高品質なイメージを再構築する大きな可能性を示している。
CS-MRIにおけるサブサンプリングパターンや画像解像度に頑健な統一モデルを提案する。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Probabilistic 3D Correspondence Prediction from Sparse Unsegmented Images [1.2179682412409507]
スパース画像データから3次元対応を予測する統一モデルであるSPI-CorrNetを提案する。
LGE MRI左房データセットとAbdomen CT-1K肝データセットを用いた実験により,スパース画像駆動SSMの精度とロバスト性の向上が示された。
論文 参考訳(メタデータ) (2024-07-02T03:56:20Z) - ImageFlowNet: Forecasting Multiscale Image-Level Trajectories of Disease Progression with Irregularly-Sampled Longitudinal Medical Images [44.107186498384024]
ImageFlowNetは、空間的詳細を保存しながら、初期画像から疾患軌跡を予測するために設計された新しいモデルである。
我々は、ODEの定式化を支援し、高レベルの視覚的特徴を含む正規化を動機付ける理論的洞察を提供する。
私たちのコントリビューションには、ImageFlowNetの開発、実世界のデータセットに関する理論的および実証的な検証が含まれています。
論文 参考訳(メタデータ) (2024-06-20T23:51:32Z) - CPT-Interp: Continuous sPatial and Temporal Motion Modeling for 4D Medical Image Interpolation [22.886841531680567]
4D医療画像からの運動情報は、臨床評価と放射線治療計画のための患者解剖学の動的変化に関する重要な洞察を提供する。
しかし、画像ハードウェアの物理的および技術的な制約は、時間分解能と画質の妥協を必要とすることが多い。
暗黙的神経表現を用いた患者解剖運動を連続的にモデル化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T09:35:42Z) - CoNeS: Conditional neural fields with shift modulation for multi-sequence MRI translation [5.662694302758443]
マルチシーケンスMRI(Multi-sequence magnetic resonance imaging)は、現代の臨床研究とディープラーニング研究の両方に広く応用されている。
画像取得プロトコルの違いや、患者のコントラスト剤の禁忌が原因で、MRIの1つ以上の配列が欠落することがしばしば起こる。
1つの有望なアプローチは、生成モデルを利用して欠落したシーケンスを合成することであり、これはサロゲート獲得の役割を果たす。
論文 参考訳(メタデータ) (2023-09-06T19:01:58Z) - Temporal Context Matters: Enhancing Single Image Prediction with Disease
Progression Representations [8.396615243014768]
本稿では,時間経過情報を活用した深層学習手法を提案する。
本手法では, 自己注意に基づく時間的畳み込みネットワーク(TCN)を用いて, 疾患の軌跡を最も反映した表現を学習する。
ビジョン変換器は、単点画像から特徴を抽出するために、自己教師型で事前訓練される。
論文 参考訳(メタデータ) (2022-03-02T22:11:07Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z) - Learning Dynamic and Personalized Comorbidity Networks from Event Data
using Deep Diffusion Processes [102.02672176520382]
コンコルビンド病は、個人によって異なる複雑な時間的パターンを通じて発生し進行する。
電子的な健康記録では、患者が持つ異なる疾患を観察できるが、それぞれの共死状態の時間的関係を推測できるだけである。
我々は「ダイナミック・コオービディティ・ネットワーク」をモデル化するための深層拡散プロセスを開発する。
論文 参考訳(メタデータ) (2020-01-08T15:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。