論文の概要: Deep Iterative 2D/3D Registration
- arxiv url: http://arxiv.org/abs/2107.10004v1
- Date: Wed, 21 Jul 2021 10:51:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:18:08.123236
- Title: Deep Iterative 2D/3D Registration
- Title(参考訳): 深部反復2D/3Dレジストレーション
- Authors: Srikrishna Jaganathan, Jian Wang, Anja Borsdorf, Karthik Shetty,
Andreas Maier
- Abstract要約: 本稿では,反復的な登録作業にエンドツーエンドで使用できる,ディープラーニング駆動型2D/3D登録フレームワークを提案する。
我々は2D/3D登録フレームワークの更新ステップをPoint-to-Plane 対応を用いて学習する。
提案手法は平均8秒, 平均再投射距離誤差0.60$pm$ 0.40 mm, 成功率は97パーセント, 捕捉範囲60mmを実現している。
- 参考スコア(独自算出の注目度): 9.813316061451392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning-based 2D/3D registration methods are highly robust but often
lack the necessary registration accuracy for clinical application. A refinement
step using the classical optimization-based 2D/3D registration method applied
in combination with Deep Learning-based techniques can provide the required
accuracy. However, it also increases the runtime. In this work, we propose a
novel Deep Learning driven 2D/3D registration framework that can be used
end-to-end for iterative registration tasks without relying on any further
refinement step. We accomplish this by learning the update step of the 2D/3D
registration framework using Point-to-Plane Correspondences. The update step is
learned using iterative residual refinement-based optical flow estimation, in
combination with the Point-to-Plane correspondence solver embedded as a known
operator. Our proposed method achieves an average runtime of around 8s, a mean
re-projection distance error of 0.60 $\pm$ 0.40 mm with a success ratio of 97
percent and a capture range of 60 mm. The combination of high registration
accuracy, high robustness, and fast runtime makes our solution ideal for
clinical applications.
- Abstract(参考訳): 深層学習に基づく2d/3d登録法は非常に堅牢であるが、臨床応用に必要な登録精度を欠くことが多い。
古典的最適化に基づく2d/3d登録法と深層学習に基づく手法を組み合わせることで、必要な精度が得られる。
しかし、ランタイムも増加します。
本研究では,新たなDeep Learningによる2D/3D登録フレームワークを提案する。
我々は2D/3D登録フレームワークの更新ステップをPoint-to-Plane 対応を用いて学習する。
更新ステップは、既知演算子として埋め込まれたPoint-to-Plane対応解決器と組み合わせて、繰り返し残差補正に基づく光フロー推定を用いて学習する。
提案手法は,平均8秒間隔,平均再投射距離誤差0.60$\pm$ 0.40mm,成功率97パーセント,捕獲範囲60mmという平均ランタイムを実現する。
高い登録精度、高い堅牢性、高速なランタイムの組み合わせは、私たちのソリューションを臨床アプリケーションにとって理想的なものにします。
関連論文リスト
- 3DMOTFormer: Graph Transformer for Online 3D Multi-Object Tracking [15.330384668966806]
最先端の3Dマルチオブジェクト追跡(MOT)アプローチは通常、Kalman Filterのような非学習モデルベースのアルゴリズムに依存している。
本稿では3DMOTFormerを提案する。この3D MOTフレームワークはトランスフォーマーアーキテクチャをベースに構築されている。
提案手法は, nuScenesバリデーションとテストスプリットでそれぞれ71.2%, AMOTA68.2%を達成している。
論文 参考訳(メタデータ) (2023-08-12T19:19:58Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - SENDD: Sparse Efficient Neural Depth and Deformation for Tissue Tracking [7.282909831316735]
3次元組織運動のリアルタイム推定は、ロボットによる外科手術に不可欠である。
SENDD(Sparse Efficient Neural Depth and deformation)モデルでは,従来の2次元追跡作業を拡張して3次元空間内の流れを推定する。
SENDDは、スパースキーポイントマッチのグラフニューラルネットワークを使用して、どこでも深さと3Dフローを推定する。
論文 参考訳(メタデータ) (2023-05-10T22:04:56Z) - GOOD: General Optimization-based Fusion for 3D Object Detection via
LiDAR-Camera Object Candidates [10.534984939225014]
3次元物体検出は、自律運転における知覚タスクの中核となる基礎となる。
Goodは汎用的な最適化ベースの融合フレームワークで、追加のモデルをトレーニングすることなく、満足度の高い検出を実現できる。
nuScenesとKITTIデータセットの両方の実験を行い、その結果、GOODはPointPillarsと比較してmAPスコアで9.1%上回っていることが示された。
論文 参考訳(メタデータ) (2023-03-17T07:05:04Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping [0.19686770963118383]
リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
論文 参考訳(メタデータ) (2021-11-11T15:36:55Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Learning the Update Operator for 2D/3D Image Registration [10.720342813316531]
術前ボリュームは2D/3D画像登録を用いて2D画像の上にオーバーレイすることができる。
深層学習に基づく2D/3D登録法は,計算効率とロバスト性を向上させることによって有望な結果を示した。
更新ステップ予測における登録精度は,既知演算子を持たない学習と比較して1.8倍向上した。
論文 参考訳(メタデータ) (2021-02-04T19:52:59Z) - Human Body Model Fitting by Learned Gradient Descent [48.79414884222403]
画像に3次元の人体形状を適合させる新しいアルゴリズムを提案する。
このアルゴリズムは高速(約120ms収束)で、データセットに頑健であり、公開評価データセットの最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-19T14:26:47Z) - Learning 3D-3D Correspondences for One-shot Partial-to-partial
Registration [66.41922513553367]
学習に基づく部分的対部分的な登録をワンショットで行うことができることを示す。
そこで本研究では,ビンの利用により閉塞点を考慮に入れた最適輸送層を提案する。
結果として得られるOPRNetフレームワークは、標準ベンチマークにおける最先端技術を上回っている。
論文 参考訳(メタデータ) (2020-06-08T12:35:47Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。