論文の概要: Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings
- arxiv url: http://arxiv.org/abs/2303.15947v1
- Date: Tue, 28 Mar 2023 13:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:20:05.123878
- Title: Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings
- Title(参考訳): Deep Selection: 手術記録のための完全な監視カメラ選択ネットワーク
- Authors: Ryo Hachiuma, Tomohiro Shimizu, Hideo Saito, Hiroki Kajita, Yoshifumi
Takatsume
- Abstract要約: 手術用ランプに複数のカメラを埋め込んだ記録システムを用いる。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.242157746114113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recording surgery in operating rooms is an essential task for education and
evaluation of medical treatment. However, recording the desired targets, such
as the surgery field, surgical tools, or doctor's hands, is difficult because
the targets are heavily occluded during surgery. We use a recording system in
which multiple cameras are embedded in the surgical lamp, and we assume that at
least one camera is recording the target without occlusion at any given time.
As the embedded cameras obtain multiple video sequences, we address the task of
selecting the camera with the best view of the surgery. Unlike the conventional
method, which selects the camera based on the area size of the surgery field,
we propose a deep neural network that predicts the camera selection probability
from multiple video sequences by learning the supervision of the expert
annotation. We created a dataset in which six different types of plastic
surgery are recorded, and we provided the annotation of camera switching. Our
experiments show that our approach successfully switched between cameras and
outperformed three baseline methods.
- Abstract(参考訳): 手術室での手術記録は,医療の教育・評価に欠かせない課題である。
しかし, 手術現場, 手術器具, 医師の手などの所望の目標を記録することは, 手術中, 目標がかなり遮蔽されているため困難である。
我々は,複数のカメラを手術用ランプに埋め込んだ記録システムを用いて,少なくとも1台のカメラが任意の時間に閉塞なくターゲットを記録していると仮定する。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、専門家アノテーションの監督を学習し、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
我々は6種類のプラスティック手術を記録するデータセットを作成し、カメラスイッチングのアノテーションを提供した。
実験の結果,提案手法は3つのベースライン法を上回ってカメラを切り替えることに成功した。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、現実世界の手術の仮想レプリカを作成するプロセスである。
脊椎外科手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Depth Over RGB: Automatic Evaluation of Open Surgery Skills Using Depth
Camera [0.8246494848934447]
この研究は、深度カメラがRGBカメラと同様の結果を得ることを示すことを目的としている。
ディープカメラは、照明のバリエーションに対する堅牢性、カメラの位置決め、単純化されたデータ圧縮、プライバシー強化などの利点を提供する。
論文 参考訳(メタデータ) (2024-01-18T15:00:28Z) - WS-SfMLearner: Self-supervised Monocular Depth and Ego-motion Estimation
on Surgical Videos with Unknown Camera Parameters [0.0]
正確で堅牢な自己監督深度とカメラエゴモーション推定システムの構築は、コンピュータビジョンコミュニティから注目を集めている。
本研究では,正確な深度マップやカメラポーズだけでなく,カメラ固有のパラメータも予測できる自己教師付き深度・エゴモーション推定システムを構築することを目的とした。
論文 参考訳(メタデータ) (2023-08-22T20:35:24Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical Video Lectures [51.78027546947034]
外科的コンピュータビジョンの最近の進歩は、言語意味論に欠ける視覚のみのモデルによって推進されている。
本稿では,eラーニングプラットフォームからの手術ビデオ講義を活用し,効果的な視覚情報と言語監督信号を提供する。
テキスト書き起こしのための複数自動音声認識システムを用いて,手術固有の言語課題に対処する。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - Deep Homography Estimation in Dynamic Surgical Scenes for Laparoscopic
Camera Motion Extraction [6.56651216023737]
腹腔鏡下手術の映像から腹腔鏡ホルダーの動作を抽出する手法を提案する。
我々は、新たに取得したカメラモーションフリーda Vinci画像シーケンスのデータセットに、カメラモーションを合成的に付加する。
提案手法は,我々のカメラモーションフリーda Vinci手術データセットから腹腔鏡下手術の映像へ移行し,古典的ホモグラフィー推定手法の双方,精度41%,CPU上でのランタイムを43%上回る結果を得た。
論文 参考訳(メタデータ) (2021-09-30T13:05:37Z) - Predicting the Timing of Camera Movements From the Kinematics of
Instruments in Robotic-Assisted Surgery Using Artificial Neural Networks [1.0965065178451106]
本稿では,人工知能を用いてカメラの動きを予測するための予測手法を提案する。
ブタモデルを用いたロボット支援手術訓練中に記録した手術器具のキネマティクスデータを用いて検討した。
その結果,装置のキネマティックデータを用いて,カメラの動きがいつ起こるのかを予測し,セグメント長やアンサンブルサイズの違いによる性能評価を行った。
論文 参考訳(メタデータ) (2021-09-23T07:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。