論文の概要: 3D Reconstruction and Alignment by Consumer RGB-D Sensors and Fiducial
Planar Markers for Patient Positioning in Radiation Therapy
- arxiv url: http://arxiv.org/abs/2103.12162v1
- Date: Mon, 22 Mar 2021 20:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:58:00.492890
- Title: 3D Reconstruction and Alignment by Consumer RGB-D Sensors and Fiducial
Planar Markers for Patient Positioning in Radiation Therapy
- Title(参考訳): 放射線治療における患者位置決めのための消費者向けRGB-Dセンサとフィデューシャルプラナーマーカーによる3次元再構成とアライメント
- Authors: Hamid Sarmadi, Rafael Mu\~noz-Salinas, M.\'Alvaro Berb\'is, Antonio
Luna, Rafael Medina-Carnicer
- Abstract要約: 本稿では,安価な消費者レベルのRGB-Dセンサを用いた迅速かつ安価な患者位置決め法を提案する。
提案手法は,手持ちのRGB-Dセンサから記録された実時間,人工的,自然な視覚的ランドマークを融合する3次元再構成手法に依存する。
- 参考スコア(独自算出の注目度): 1.7744342894757368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: BACKGROUND AND OBJECTIVE: Patient positioning is a crucial step in radiation
therapy, for which non-invasive methods have been developed based on surface
reconstruction using optical 3D imaging. However, most solutions need expensive
specialized hardware and a careful calibration procedure that must be repeated
over time.This paper proposes a fast and cheap patient positioning method based
on inexpensive consumer level RGB-D sensors.
METHODS: The proposed method relies on a 3D reconstruction approach that
fuses, in real-time, artificial and natural visual landmarks recorded from a
hand-held RGB-D sensor. The video sequence is transformed into a set of
keyframes with known poses, that are later refined to obtain a realistic 3D
reconstruction of the patient. The use of artificial landmarks allows our
method to automatically align the reconstruction to a reference one, without
the need of calibrating the system with respect to the linear accelerator
coordinate system.
RESULTS:The experiments conducted show that our method obtains a median of 1
cm in translational error, and 1 degree of rotational error with respect to
reference pose. Additionally, the proposed method shows as visual output
overlayed poses (from the reference and the current scene) and an error map
that can be used to correct the patient's current pose to match the reference
pose.
CONCLUSIONS: A novel approach to obtain 3D body reconstructions for patient
positioning without requiring expensive hardware or dedicated graphic cards is
proposed. The method can be used to align in real time the patient's current
pose to a preview pose, which is a relevant step in radiation therapy.
- Abstract(参考訳): BACKGROUND and OBJECTIVE: 患者の位置決めは放射線治療において重要なステップであり、光学的3D画像を用いた表面再構成に基づく非侵襲的手法が開発されている。
しかし、ほとんどのソリューションは高価な専用ハードウェアと、時間とともに繰り返される慎重な校正手順を必要としており、安価で安価なRGB-Dセンサーに基づく患者位置決め手法を提案する。
方法: 提案手法は手持ちのRGB-Dセンサから記録された実時間, 人工的, 自然的なランドマークを融合する3次元再構成手法に依存する。
ビデオシーケンスは、既知のポーズを持つ一連のキーフレームに変換され、後に患者の現実的な3d再構成を得るために洗練される。
人工ランドマークを用いることで,線形加速器座標系に対してシステムの校正を必要とせずに,復元を基準に自動調整することが可能となる。
結果: 本手法は, 翻訳誤差の中央値が1cmであり, 基準姿勢に対して1度回転誤差が得られた。
さらに,提案手法では,視覚的出力のオーバーレイされたポーズ(参照シーンと現在のシーン)と,患者の現在のポーズを補正して参照ポーズと一致させることができるエラーマップを示す。
ConCLUSIONS: 高価なハードウェアや専用グラフィックカードを必要とせず, 患者の位置決めのための3次元身体再構築手法を提案する。
この方法は、患者の現在のポーズを、放射線治療の関連ステップであるプレビューポーズにリアルタイムで合わせるために使用することができる。
関連論文リスト
- SurgPointTransformer: Vertebrae Shape Completion with RGB-D Data [0.0]
本研究は,RGB-Dデータを用いた3次元脊椎解剖の再構築のための代替的,放射線のないアプローチを提案する。
SurgPointTransformerは, 表面の粗い観察から未露出の脊椎領域を正確に再構築できる手術用形状補修法である。
提案手法は,平均チャンファー距離5.39,Fスコア0.85,アースモーバー距離0.011,信号対雑音比22.90dBを達成し,最先端のベースラインを著しく上回る。
論文 参考訳(メタデータ) (2024-10-02T11:53:28Z) - SALVE: A 3D Reconstruction Benchmark of Wounds from Consumer-grade Videos [20.69257610322339]
本稿では,消費者向けビデオからの3次元創傷再建について述べる。
SALVEデータセットを導入し、異なるカメラで捉えた現実的な創傷ファントムのビデオ記録を含む。
我々は,従来のフォトグラメトリーパイプラインから高度なニューラルレンダリングアプローチまで,最先端の3次元再構成手法の精度と精度を評価する。
論文 参考訳(メタデータ) (2024-07-29T02:34:51Z) - Intraoperative 2D/3D Image Registration via Differentiable X-ray Rendering [5.617649111108429]
DiffPoseは、患者固有のシミュレーションと微分可能な物理ベースのレンダリングを利用して、手動でラベル付けされたデータに頼ることなく正確な2D/3D登録を実現する自己教師型アプローチである。
DiffPoseは手術用データセット全体の術速でサブミリ精度を達成し、既存の教師なしの手法を桁違いに改善し、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T13:05:54Z) - W-HMR: Monocular Human Mesh Recovery in World Space with Weak-Supervised Calibration [57.37135310143126]
モノクロ画像からの3次元運動回復のための従来の手法は、カメラ座標に依存するため、しばしば不足する。
W-HMRは、身体の歪み情報に基づいて「適切な」焦点長を予測する弱教師付き校正法である。
また,世界空間における可視的再構築のために,身体の向きを補正する OrientCorrect モジュールを提案する。
論文 参考訳(メタデータ) (2023-11-29T09:02:07Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Stereo Dense Scene Reconstruction and Accurate Laparoscope Localization
for Learning-Based Navigation in Robot-Assisted Surgery [37.14020061063255]
微小侵襲手術(MIS)における解剖情報と腹腔鏡位置の計算はロボット支援手術ナビゲーションの基本ブロックである
本稿では,複雑な解剖学的構造の3次元再構成による画像誘導腹腔鏡像の局在化を実現するための学習駆動型フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-08T06:12:18Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z) - Probabilistic 3D surface reconstruction from sparse MRI information [58.14653650521129]
スパース2次元MR画像データとアレータティック不確実性予測から3次元表面再構成を同時に行うための新しい確率論的深層学習手法を提案する。
本手法は,3つの準直交MR画像スライスから,限られたトレーニングセットから大きな表面メッシュを再構成することができる。
論文 参考訳(メタデータ) (2020-10-05T14:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。