論文の概要: Dense 3D Reconstruction Through Lidar: A Comparative Study on Ex-vivo
Porcine Tissue
- arxiv url: http://arxiv.org/abs/2401.10709v1
- Date: Fri, 19 Jan 2024 14:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:45:24.357196
- Title: Dense 3D Reconstruction Through Lidar: A Comparative Study on Ex-vivo
Porcine Tissue
- Title(参考訳): ライダーによる高密度3次元再構築 : ブタ前生組織の比較検討
- Authors: Guido Caccianiga, Julian Nubert, Marco Hutter, Katherine J.
Kuchenbecker
- Abstract要約: 研究者たちは、視覚に基づく手術支援のための深度検知と3D再構成を積極的に研究している。
腹腔鏡下手術では, リアルタイム, 正確, 堅牢な3次元表示が困難である。
この研究は、3Dレーザーによる飛行時間センサーが解剖学的表面の再構成を行うことができる品質を徹底的に特徴付けるために、生き残ったブタの組織を定量的に検査する。
- 参考スコア(独自算出の注目度): 16.786601606755013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New sensing technologies and more advanced processing algorithms are
transforming computer-integrated surgery. While researchers are actively
investigating depth sensing and 3D reconstruction for vision-based surgical
assistance, it remains difficult to achieve real-time, accurate, and robust 3D
representations of the abdominal cavity for minimally invasive surgery. Thus,
this work uses quantitative testing on fresh ex-vivo porcine tissue to
thoroughly characterize the quality with which a 3D laser-based time-of-flight
sensor (lidar) can perform anatomical surface reconstruction. Ground-truth
surface shapes are captured with a commercial laser scanner, and the resulting
signed error fields are analyzed using rigorous statistical tools. When
compared to modern learning-based stereo matching from endoscopic images,
time-of-flight sensing demonstrates higher precision, lower processing delay,
higher frame rate, and superior robustness against sensor distance and poor
illumination. Furthermore, we report on the potential negative effect of
near-infrared light penetration on the accuracy of lidar measurements across
different tissue samples, identifying a significant measured depth offset for
muscle in contrast to fat and liver. Our findings highlight the potential of
lidar for intraoperative 3D perception and point toward new methods that
combine complementary time-of-flight and spectral imaging.
- Abstract(参考訳): 新しいセンシング技術と高度な処理アルゴリズムは、コンピュータ統合手術を変革している。
視覚支援のための深部センシングと3次元再構成を積極的に研究している研究者はいるが、最小限の侵襲的手術のために、リアルタイムで正確でロバストな腹腔の3d表現を実現するのは難しい。
そこで本研究では, 生鮮ブタの組織を定量的に測定し, 3dレーザーを用いた飛行時間センサ(lidar)を用いて解剖学的表面再構成を行った。
地表面形状を商用レーザースキャナーで捕捉し, 得られた符号付き誤差場を厳密な統計ツールを用いて解析する。
最新の画像からの学習に基づくステレオマッチングと比較すると、時間飛行センシングは高精度、処理遅延の低減、フレームレートの向上、センサ距離に対する堅牢性の向上、照明の低下を示す。
さらに, 近赤外光透過によるlidar測定の精度の悪影響について検討し, 脂肪や肝臓とは対照的に, 筋の奥行きオフセットを有意な測定値と同定した。
本研究は, 術中3次元知覚におけるライダーの可能性と, 飛行時間と分光画像の相補的組み合わせによる新しい方法への展望を明らかにする。
関連論文リスト
- Enhancing Free-hand 3D Photoacoustic and Ultrasound Reconstruction using Deep Learning [3.8426872518410997]
本研究では,携帯型光音響・超音波(PAUS)画像における3次元再構成を支援するため,グローバルローカル自己保持モジュール(MoGLo-Net)を用いたモーションベース学習ネットワークを提案する。
MoGLo-Netは、連続した超音波画像内の完全に発達したスペックル領域や高発癌組織領域などの臨界領域を利用して、運動パラメータを正確に推定する。
論文 参考訳(メタデータ) (2025-02-05T11:59:23Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - High-fidelity Endoscopic Image Synthesis by Utilizing Depth-guided Neural Surfaces [18.948630080040576]
内視鏡画像に適用したNeuSを1フレームの深度マップで補足した新しい大腸部分再建法を提案する。
本手法は, 大腸切片を完全にレンダリングし, 表面の見えない部分を捕捉する際の異常な精度を示す。
このブレークスルーは、安定的で一貫してスケールされた再建を達成するための道を開き、がんスクリーニングの手順と治療介入の質を高めることを約束する。
論文 参考訳(メタデータ) (2024-04-20T18:06:26Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Monitoring of Pigmented Skin Lesions Using 3D Whole Body Imaging [14.544274849288952]
皮膚病変の迅速評価とマッピングを可能にする3次元全身イメージングプロトタイプを提案する。
モジュラーカメラリグは、体全体をスキャンするために複数の角度から同期した画像を自動でキャプチャするように設計されている。
我々は,深部畳み込みニューラルネットワークに基づく3次元体像再構成,データ処理,皮膚病変検出のためのアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-05-14T15:24:06Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - 3D endoscopic depth estimation using 3D surface-aware constraints [16.161276518580262]
深度推定は3次元表面から行うことができることを示す。
本研究では,表面認識制約を統合した深度推定のための損失関数を提案する。
カメラパラメータは、深さ推定の制御と透明性を高めるために、トレーニングパイプラインに組み込まれる。
論文 参考訳(メタデータ) (2022-03-04T04:47:20Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z) - Searching for Efficient Architecture for Instrument Segmentation in
Robotic Surgery [58.63306322525082]
ほとんどのアプリケーションは、高解像度の外科画像の正確なリアルタイムセグメンテーションに依存している。
我々は,高解像度画像のリアルタイム推論を行うために調整された,軽量で高効率なディープ残差アーキテクチャを設計する。
論文 参考訳(メタデータ) (2020-07-08T21:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。