論文の概要: Deep Homography Estimation in Dynamic Surgical Scenes for Laparoscopic
Camera Motion Extraction
- arxiv url: http://arxiv.org/abs/2109.15098v1
- Date: Thu, 30 Sep 2021 13:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:41:36.388228
- Title: Deep Homography Estimation in Dynamic Surgical Scenes for Laparoscopic
Camera Motion Extraction
- Title(参考訳): 腹腔鏡下カメラモーション抽出のための動的手術シーンにおける深部ホログラフィー推定
- Authors: Martin Huber, S\'ebastien Ourselin, Christos Bergeles, Tom Vercauteren
- Abstract要約: 腹腔鏡下手術の映像から腹腔鏡ホルダーの動作を抽出する手法を提案する。
我々は、新たに取得したカメラモーションフリーda Vinci画像シーケンスのデータセットに、カメラモーションを合成的に付加する。
提案手法は,我々のカメラモーションフリーda Vinci手術データセットから腹腔鏡下手術の映像へ移行し,古典的ホモグラフィー推定手法の双方,精度41%,CPU上でのランタイムを43%上回る結果を得た。
- 参考スコア(独自算出の注目度): 6.56651216023737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current laparoscopic camera motion automation relies on rule-based approaches
or only focuses on surgical tools. Imitation Learning (IL) methods could
alleviate these shortcomings, but have so far been applied to oversimplified
setups. Instead of extracting actions from oversimplified setups, in this work
we introduce a method that allows to extract a laparoscope holder's actions
from videos of laparoscopic interventions. We synthetically add camera motion
to a newly acquired dataset of camera motion free da Vinci surgery image
sequences through the introduction of a novel homography generation algorithm.
The synthetic camera motion serves as a supervisory signal for camera motion
estimation that is invariant to object and tool motion. We perform an extensive
evaluation of state-of-the-art (SOTA) Deep Neural Networks (DNNs) across
multiple compute regimes, finding our method transfers from our camera motion
free da Vinci surgery dataset to videos of laparoscopic interventions,
outperforming classical homography estimation approaches in both, precision by
41%, and runtime on a CPU by 43%.
- Abstract(参考訳): 現在の腹腔鏡カメラのモーションオートメーションは、ルールベースのアプローチに依存している。
模倣学習(il)メソッドは、これらの欠点を軽減することができるが、これまでのところ、過度に単純化されたセットアップに適用されている。
本研究は,単純すぎるセットアップからアクションを抽出する代わりに,腹腔鏡による介入映像から腹腔鏡ホルダのアクションを抽出する方法を提案する。
新たなホモグラフィ生成アルゴリズムの導入により,新たに取得したカメラ動作フリーda vinci手術画像系列のデータセットにカメラ動作を合成的に付加する。
合成カメラモーションは、物体と工具の動きに不変なカメラモーション推定のための監視信号として機能する。
我々は,複数の計算領域にわたる最先端(sota)深層ニューラルネットワーク(dnn)の広範な評価を行い,カメラモーションフリーda vinci手術データセットから腹腔鏡下手術ビデオへの移動,古典的ホモグラフィ推定手法の両手法における性能向上,精度41%,cpu上での実行時間43%の転送を行った。
関連論文リスト
- VISAGE: Video Synthesis using Action Graphs for Surgery [34.21344214645662]
腹腔鏡下手術における映像生成の新しい課題について紹介する。
提案手法であるVISAGEは,アクションシーングラフのパワーを利用して,腹腔鏡下手術のシーケンシャルな特徴を捉える。
腹腔鏡下手術における高忠実度ビデオ生成について検討した。
論文 参考訳(メタデータ) (2024-10-23T10:28:17Z) - FLex: Joint Pose and Dynamic Radiance Fields Optimization for Stereo Endoscopic Videos [79.50191812646125]
内視鏡的シーンの再構築は、外科手術後の分析から教育訓練まで、様々な医療応用にとって重要な要素である。
変形組織の非常にダイナミックな環境下での移動内視鏡の挑戦的なセットアップに着目する。
複数重重なり合う4次元ニューラルラジアンスフィールド(NeRF)への暗黙的なシーン分離と、再構成とカメラのスクラッチからのポーズを協調的に最適化するプログレッシブ最適化手法を提案する。
これにより、使いやすさが向上し、5000フレーム以上の手術ビデオの処理に間に合うように復元能力を拡張できる。
論文 参考訳(メタデータ) (2024-03-18T19:13:02Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Learning How To Robustly Estimate Camera Pose in Endoscopic Videos [5.073761189475753]
カメラポーズ推定における2つの幾何学的損失を最小限に抑えるために,奥行きと光学的流れを推定するステレオ内視鏡の解を提案する。
最も重要なことは、入力画像の内容に応じてコントリビューションのバランスをとるために、2つの学習された画素単位の重みマッピングを導入することである。
パブリックなSCAREDデータセットに対する我々のアプローチを検証するとともに、新たなインビボデータセットであるStereoMISを導入しています。
論文 参考訳(メタデータ) (2023-04-17T07:05:01Z) - AutoLaparo: A New Dataset of Integrated Multi-tasks for Image-guided
Surgical Automation in Laparoscopic Hysterectomy [42.20922574566824]
ヒステリクトミー手術における学習ベースの自動化を容易にするために,複数の画像に基づく知覚タスクを組み込んだ最初の統合データセットを提示,リリースする。
我々のAutoLaparoデータセットは、全子宮摘出術のフル長ビデオに基づいて開発されている。
具体的には、外科的ワークフロー認識、腹腔鏡運動予測、機器とキー解剖のセグメンテーションを含む、3つの異なる高相関なタスクがデータセットで定式化されている。
論文 参考訳(メタデータ) (2022-08-03T13:17:23Z) - Predicting the Timing of Camera Movements From the Kinematics of
Instruments in Robotic-Assisted Surgery Using Artificial Neural Networks [1.0965065178451106]
本稿では,人工知能を用いてカメラの動きを予測するための予測手法を提案する。
ブタモデルを用いたロボット支援手術訓練中に記録した手術器具のキネマティクスデータを用いて検討した。
その結果,装置のキネマティックデータを用いて,カメラの動きがいつ起こるのかを予測し,セグメント長やアンサンブルサイズの違いによる性能評価を行った。
論文 参考訳(メタデータ) (2021-09-23T07:57:27Z) - E-DSSR: Efficient Dynamic Surgical Scene Reconstruction with
Transformer-based Stereoscopic Depth Perception [15.927060244702686]
28 fpsの高ダイナミックな手術シーンに対して,効率的な再建パイプラインを提案する。
具体的には,効率的な深度推定のための変圧器を用いた立体視深度知覚を設計する。
提案したパイプラインを,公開Hamlyn Centre内視鏡ビデオデータセットと社内のDaVinciロボット手術データセットの2つのデータセットで評価した。
論文 参考訳(メタデータ) (2021-07-01T05:57:41Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Learning Motion Flows for Semi-supervised Instrument Segmentation from
Robotic Surgical Video [64.44583693846751]
本研究は,スパースアノテーションを用いたロボット手術ビデオから半教師楽器のセグメンテーションについて検討する。
生成されたデータペアを利用することで、我々のフレームワークはトレーニングシーケンスの時間的一貫性を回復し、強化することができます。
その結果,本手法は最先端の半教師あり手法よりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-06T02:39:32Z) - A Deep Learning Approach for Motion Forecasting Using 4D OCT Data [69.62333053044712]
我々は,OCTボリュームのストリームを用いたエンド・ツー・エンド動作予測と推定のための4次元時間深度学習を提案する。
提案手法は,全体の平均相関97.41%の動作予測を実現するとともに,従来の3D手法と比較して2.5倍の動作推定性能を向上する。
論文 参考訳(メタデータ) (2020-04-21T15:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。