論文の概要: Learning How To Robustly Estimate Camera Pose in Endoscopic Videos
- arxiv url: http://arxiv.org/abs/2304.08023v1
- Date: Mon, 17 Apr 2023 07:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:14:30.188772
- Title: Learning How To Robustly Estimate Camera Pose in Endoscopic Videos
- Title(参考訳): 内視鏡映像におけるカメラポーズのロバスト推定法
- Authors: Michel Hayoz, Christopher Hahne, Mathias Gallardo, Daniel Candinas,
Thomas Kurmann, Maximilian Allan, Raphael Sznitman
- Abstract要約: カメラポーズ推定における2つの幾何学的損失を最小限に抑えるために,奥行きと光学的流れを推定するステレオ内視鏡の解を提案する。
最も重要なことは、入力画像の内容に応じてコントリビューションのバランスをとるために、2つの学習された画素単位の重みマッピングを導入することである。
パブリックなSCAREDデータセットに対する我々のアプローチを検証するとともに、新たなインビボデータセットであるStereoMISを導入しています。
- 参考スコア(独自算出の注目度): 5.073761189475753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Surgical scene understanding plays a critical role in the technology
stack of tomorrow's intervention-assisting systems in endoscopic surgeries. For
this, tracking the endoscope pose is a key component, but remains challenging
due to illumination conditions, deforming tissues and the breathing motion of
organs. Method: We propose a solution for stereo endoscopes that estimates
depth and optical flow to minimize two geometric losses for camera pose
estimation. Most importantly, we introduce two learned adaptive per-pixel
weight mappings that balance contributions according to the input image
content. To do so, we train a Deep Declarative Network to take advantage of the
expressiveness of deep-learning and the robustness of a novel geometric-based
optimization approach. We validate our approach on the publicly available
SCARED dataset and introduce a new in-vivo dataset, StereoMIS, which includes a
wider spectrum of typically observed surgical settings. Results: Our method
outperforms state-of-the-art methods on average and more importantly, in
difficult scenarios where tissue deformations and breathing motion are visible.
We observed that our proposed weight mappings attenuate the contribution of
pixels on ambiguous regions of the images, such as deforming tissues.
Conclusion: We demonstrate the effectiveness of our solution to robustly
estimate the camera pose in challenging endoscopic surgical scenes. Our
contributions can be used to improve related tasks like simultaneous
localization and mapping (SLAM) or 3D reconstruction, therefore advancing
surgical scene understanding in minimally-invasive surgery.
- Abstract(参考訳): 目的: 明日の内視鏡手術における介入支援システムの技術スタックにおいて,手術現場の理解が重要な役割を担っている。
このために、内視鏡のポーズを追跡することは重要な要素であるが、照明条件、変形組織、臓器の呼吸運動のために依然として困難である。
方法: カメラポーズ推定のための2つの幾何学的損失を最小限に抑えるために, 深度と光流を推定するステレオ内視鏡の解法を提案する。
最も重要な点は,入力画像内容に応じて寄与度をバランスさせる2つの適応型ピクセル毎重みマッピングを導入することである。
そこで我々は,深層学習の表現力と新しい幾何学的最適化手法の頑健さを活用するために,深層宣言型ネットワークを訓練する。
我々は,公開の怖れデータセットに対する我々のアプローチを検証し,一般的に観察される外科的設定の広い範囲を含む,新たなvivoデータセットであるステレオミスを導入する。
結果: 本手法は, 組織変形や呼吸運動が観察できる難易度では, 平均的およびより重要なことに最先端法を上回っている。
提案する重みマッピングは,画像の曖昧な領域(変形組織など)における画素の寄与を弱めている。
結論: 内視鏡的手術シーンにおいて, カメラの姿勢を強く推定する手法の有効性を実証する。
本研究は,slamや3dリコンストラクションなどの関連課題の改善に有用であり,低侵襲手術における手術現場理解の促進に寄与する。
関連論文リスト
- EndoDAC: Efficient Adapting Foundation Model for Self-Supervised Depth Estimation from Any Endoscopic Camera [12.152362025172915]
内視鏡的深度カメラ (EndoDAC) を用いて, 基礎モデルを内視鏡的シーンに適応させる手法を提案する。
具体的には、DV-LoRA(Dynamic Vector-Based Low-Rank Adaptation)を開発し、畳み込みネックブロックを用いる。
当社のフレームワークは,任意のカメラからの単眼手術ビデオのみをトレーニングし,最小限のトレーニングコストを確保できる。
論文 参考訳(メタデータ) (2024-05-14T14:55:15Z) - High-fidelity Endoscopic Image Synthesis by Utilizing Depth-guided Neural Surfaces [18.948630080040576]
内視鏡画像に適用したNeuSを1フレームの深度マップで補足した新しい大腸部分再建法を提案する。
本手法は, 大腸切片を完全にレンダリングし, 表面の見えない部分を捕捉する際の異常な精度を示す。
このブレークスルーは、安定的で一貫してスケールされた再建を達成するための道を開き、がんスクリーニングの手順と治療介入の質を高めることを約束する。
論文 参考訳(メタデータ) (2024-04-20T18:06:26Z) - EndoGSLAM: Real-Time Dense Reconstruction and Tracking in Endoscopic Surgeries using Gaussian Splatting [53.38166294158047]
EndoGSLAMは鏡視下手術の効率的なアプローチであり、合理化表現と微分ガウス化を統合している。
実験の結果,EndoGSLAMは従来型あるいは神経型SLAMアプローチよりも術中可用性と再建品質のトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2024-03-22T11:27:43Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - Neural LerPlane Representations for Fast 4D Reconstruction of Deformable
Tissues [52.886545681833596]
LerPlaneは単一視点環境下での手術シーンの高速かつ正確な再構築手法である。
LerPlaneは外科手術を4Dボリュームとして扱い、静的および動的フィールドの明示的な2D平面に分解する。
LerPlaneは静的フィールドを共有し、動的組織モデリングのワークロードを大幅に削減する。
論文 参考訳(メタデータ) (2023-05-31T14:38:35Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - E-DSSR: Efficient Dynamic Surgical Scene Reconstruction with
Transformer-based Stereoscopic Depth Perception [15.927060244702686]
28 fpsの高ダイナミックな手術シーンに対して,効率的な再建パイプラインを提案する。
具体的には,効率的な深度推定のための変圧器を用いた立体視深度知覚を設計する。
提案したパイプラインを,公開Hamlyn Centre内視鏡ビデオデータセットと社内のDaVinciロボット手術データセットの2つのデータセットで評価した。
論文 参考訳(メタデータ) (2021-07-01T05:57:41Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。