論文の概要: Patient-Specific Autoregressive Models for Organ Motion Prediction in Radiotherapy
- arxiv url: http://arxiv.org/abs/2505.11832v1
- Date: Sat, 17 May 2025 04:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.880033
- Title: Patient-Specific Autoregressive Models for Organ Motion Prediction in Radiotherapy
- Title(参考訳): 放射線治療における臓器運動予測のための患者特異的自己回帰モデル
- Authors: Yuxiang Lai, Jike Zhong, Vanessa Su, Xiaofeng Yang,
- Abstract要約: 臓器の動作予測を自己回帰プロセスとして再構成し,患者固有の動作パターンをよりよく捉えた。
当施設で放射線治療を受けた50例の4D CTの実検セットと,20例の4D CTスキャンを含む公開データセットについて検討した。
- 参考スコア(独自算出の注目度): 1.8776090401559167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Radiotherapy often involves a prolonged treatment period. During this time, patients may experience organ motion due to breathing and other physiological factors. Predicting and modeling this motion before treatment is crucial for ensuring precise radiation delivery. However, existing pre-treatment organ motion prediction methods primarily rely on deformation analysis using principal component analysis (PCA), which is highly dependent on registration quality and struggles to capture periodic temporal dynamics for motion modeling.In this paper, we observe that organ motion prediction closely resembles an autoregressive process, a technique widely used in natural language processing (NLP). Autoregressive models predict the next token based on previous inputs, naturally aligning with our objective of predicting future organ motion phases. Building on this insight, we reformulate organ motion prediction as an autoregressive process to better capture patient-specific motion patterns. Specifically, we acquire 4D CT scans for each patient before treatment, with each sequence comprising multiple 3D CT phases. These phases are fed into the autoregressive model to predict future phases based on prior phase motion patterns. We evaluate our method on a real-world test set of 4D CT scans from 50 patients who underwent radiotherapy at our institution and a public dataset containing 4D CT scans from 20 patients (some with multiple scans), totaling over 1,300 3D CT phases. The performance in predicting the motion of the lung and heart surpasses existing benchmarks, demonstrating its effectiveness in capturing motion dynamics from CT images. These results highlight the potential of our method to improve pre-treatment planning in radiotherapy, enabling more precise and adaptive radiation delivery.
- Abstract(参考訳): 放射線療法は長い治療期間を含むことが多い。
この期間、患者は呼吸やその他の生理的要因によって臓器の動きを経験することができる。
治療前にこの動きを予測し、モデル化することは、正確な放射線伝達を保証するために不可欠である。
しかし,既存の臓器の動作予測手法は,登録品質に大きく依存する主成分分析(PCA)を用いた変形解析に大きく依存しており,動作モデリングの周期的時間的ダイナミクスの把握に苦慮している。
自己回帰モデルは、前回の入力に基づいて次のトークンを予測する。
この知見に基づいて, 臓器の運動予測を自己回帰的プロセスとして再構成し, 患者固有の動作パターンをよりよく捉えた。
具体的には,治療前の各患者の4次元CTを,複数の3次元CTフェーズからなるシーケンスで取得する。
これらの位相は自己回帰モデルに入力され、前フェーズの動きパターンに基づいて将来の位相を予測する。
当施設で放射線治療を受けた50例の4次元CT検査と,20例の4次元CT検査(複数検診例もある)を対象とし,合計1300回以上の3次元CT検査を行った。
肺と心臓の運動を予測する性能は、既存のベンチマークを超え、CT画像から運動力学を捉える効果を実証している。
これらの結果は,放射線治療における前処置計画の改善の可能性を強調し,より正確で適応的な放射線治療を可能にした。
関連論文リスト
- Prediction of Frozen Region Growth in Kidney Cryoablation Intervention Using a 3D Flow-Matching Model [9.465809201853116]
本研究は,腎の凍結凝固過程における凍結領域(アイスボール)の進行を予測するための3次元フローマッチングモデルを提案する。
このモデルは、IoU(Intersection over Union)スコアが0.61、Dice係数が0.75となる。
論文 参考訳(メタデータ) (2025-03-06T20:52:58Z) - 4D VQ-GAN: Synthesising Medical Scans at Any Time Point for Personalised Disease Progression Modelling of Idiopathic Pulmonary Fibrosis [5.926086195644801]
我々は,IPF患者をリアルなCTボリュームで生成できるモデルである4D-VQ-GAN(4D Vector Quantated Generative Adversarial Networks)を提案する。
縦断的CT画像を生成するためのモデルの異なる構成を評価し, 結果と地中真理データを比較した。
論文 参考訳(メタデータ) (2025-02-08T22:25:53Z) - CPT-Interp: Continuous sPatial and Temporal Motion Modeling for 4D Medical Image Interpolation [22.886841531680567]
4D医療画像からの運動情報は、臨床評価と放射線治療計画のための患者解剖学の動的変化に関する重要な洞察を提供する。
しかし、画像ハードウェアの物理的および技術的な制約は、時間分解能と画質の妥協を必要とすることが多い。
暗黙的神経表現を用いた患者解剖運動を連続的にモデル化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T09:35:42Z) - CT respiratory motion synthesis using joint supervised and adversarial learning [1.0958341916240883]
本研究では,静止画像から擬似呼吸CT位相を生成する深層合成法を提案する。
このモデルでは,外部の患者表面をベースとしたコンディショニング合成により,患者特異的な変形ベクトル場(DVF)を生成する。
その結果, 生成した擬似呼吸CTの位相が, 同一患者の4DCTスキャンと同等の精度で臓器, 腫瘍の運動を捉えることができた。
論文 参考訳(メタデータ) (2024-03-29T21:40:12Z) - Solving Inverse Problems in Medical Imaging with Score-Based Generative
Models [87.48867245544106]
CT(Computed Tomography)とMRI(Magnetic Resonance Imaging)における医用画像の再構成は重要な逆問題である
機械学習に基づく既存のソリューションは通常、測定結果を医療画像に直接マッピングするモデルを訓練する。
本稿では,最近導入されたスコアベース生成モデルを利用して,逆問題解決のための教師なし手法を提案する。
論文 参考訳(メタデータ) (2021-11-15T05:41:12Z) - Continuous Decoding of Daily-Life Hand Movements from Forearm Muscle
Activity for Enhanced Myoelectric Control of Hand Prostheses [78.120734120667]
本研究では,前腕のEMG活性をハンドキネマティクスに連続的にマップする,長期記憶(LSTM)ネットワークに基づく新しい手法を提案する。
私たちの研究は、この困難なデータセットを使用するハンドキネマティクスの予測に関する最初の報告です。
提案手法は, 人工手指の複数のDOFの独立的, 比例的アクティベーションのための制御信号の生成に適していることが示唆された。
論文 参考訳(メタデータ) (2021-04-29T00:11:32Z) - MIA-Prognosis: A Deep Learning Framework to Predict Therapy Response [58.0291320452122]
本稿では,患者の予後と治療反応を予測するための統合型深層学習手法を提案する。
我々は,マルチモーダル非同期時系列分類タスクとして,確率モデリングを定式化する。
我々の予測モデルは、長期生存の観点から、低リスク、高リスクの患者をさらに階層化する可能性がある。
論文 参考訳(メタデータ) (2020-10-08T15:30:17Z) - A Deep Learning Approach for Motion Forecasting Using 4D OCT Data [69.62333053044712]
我々は,OCTボリュームのストリームを用いたエンド・ツー・エンド動作予測と推定のための4次元時間深度学習を提案する。
提案手法は,全体の平均相関97.41%の動作予測を実現するとともに,従来の3D手法と比較して2.5倍の動作推定性能を向上する。
論文 参考訳(メタデータ) (2020-04-21T15:59:53Z) - Spatio-Temporal Deep Learning Methods for Motion Estimation Using 4D OCT
Image Data [63.73263986460191]
特定の対象領域の局所化と運動の推定は、外科的介入の際のナビゲーションの一般的な問題である。
OCT画像ボリュームの時間的ストリームを用いることで、深層学習に基づく動き推定性能が向上するかどうかを検討する。
モデル入力に4D情報を使用すると、合理的な推論時間を維持しながら性能が向上する。
論文 参考訳(メタデータ) (2020-04-21T15:43:01Z) - Microvascular Dynamics from 4D Microscopy Using Temporal Segmentation [81.30750944868142]
経時的に脳血流量の変化を追跡でき, ピアル表面に向かって伝播する自発性動脈拡張を同定できる。
この新たなイメージング機能は、機能的磁気共鳴イメージング(fMRI)を基盤とした血行動態応答関数を特徴付けるための有望なステップである。
論文 参考訳(メタデータ) (2020-01-14T22:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。