論文の概要: Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings
- arxiv url: http://arxiv.org/abs/2303.15947v1
- Date: Tue, 28 Mar 2023 13:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:20:05.123878
- Title: Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings
- Title(参考訳): Deep Selection: 手術記録のための完全な監視カメラ選択ネットワーク
- Authors: Ryo Hachiuma, Tomohiro Shimizu, Hideo Saito, Hiroki Kajita, Yoshifumi
Takatsume
- Abstract要約: 手術用ランプに複数のカメラを埋め込んだ記録システムを用いる。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.242157746114113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recording surgery in operating rooms is an essential task for education and
evaluation of medical treatment. However, recording the desired targets, such
as the surgery field, surgical tools, or doctor's hands, is difficult because
the targets are heavily occluded during surgery. We use a recording system in
which multiple cameras are embedded in the surgical lamp, and we assume that at
least one camera is recording the target without occlusion at any given time.
As the embedded cameras obtain multiple video sequences, we address the task of
selecting the camera with the best view of the surgery. Unlike the conventional
method, which selects the camera based on the area size of the surgery field,
we propose a deep neural network that predicts the camera selection probability
from multiple video sequences by learning the supervision of the expert
annotation. We created a dataset in which six different types of plastic
surgery are recorded, and we provided the annotation of camera switching. Our
experiments show that our approach successfully switched between cameras and
outperformed three baseline methods.
- Abstract(参考訳): 手術室での手術記録は,医療の教育・評価に欠かせない課題である。
しかし, 手術現場, 手術器具, 医師の手などの所望の目標を記録することは, 手術中, 目標がかなり遮蔽されているため困難である。
我々は,複数のカメラを手術用ランプに埋め込んだ記録システムを用いて,少なくとも1台のカメラが任意の時間に閉塞なくターゲットを記録していると仮定する。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、専門家アノテーションの監督を学習し、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
我々は6種類のプラスティック手術を記録するデータセットを作成し、カメラスイッチングのアノテーションを提供した。
実験の結果,提案手法は3つのベースライン法を上回ってカメラを切り替えることに成功した。
関連論文リスト
- Depth Over RGB: Automatic Evaluation of Open Surgery Skills Using Depth
Camera [0.8246494848934447]
この研究は、深度カメラがRGBカメラと同様の結果を得ることを示すことを目的としている。
ディープカメラは、照明のバリエーションに対する堅牢性、カメラの位置決め、単純化されたデータ圧縮、プライバシー強化などの利点を提供する。
論文 参考訳(メタデータ) (2024-01-18T15:00:28Z) - WS-SfMLearner: Self-supervised Monocular Depth and Ego-motion Estimation
on Surgical Videos with Unknown Camera Parameters [0.0]
正確で堅牢な自己監督深度とカメラエゴモーション推定システムの構築は、コンピュータビジョンコミュニティから注目を集めている。
本研究では,正確な深度マップやカメラポーズだけでなく,カメラ固有のパラメータも予測できる自己教師付き深度・エゴモーション推定システムを構築することを目的とした。
論文 参考訳(メタデータ) (2023-08-22T20:35:24Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical
Video Lectures [54.376834698110684]
本研究では,オープンな外科的eラーニングプラットフォームを通じて利用可能な手術ビデオ講義が,効果的な監視信号を提供することができるという考えを提起した。
我々は複数の補完的な自動音声認識システムを用いてテキストの書き起こしを生成する。
次に、多モーダル表現学習のための新しい方法、Surg - Surgery Vision Language Pre-trainingを提案する。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Temporal and Contextual Transformer for Multi-Camera Editing of TV Shows [83.54243912535667]
まず、コンサート、スポーツゲーム、ガラショー、コンテストを含む4つの異なるシナリオを用いて、この設定に関する新しいベンチマークを収集する。
14時間編集されたビデオに貢献する88時間の生のビデオが含まれている。
歴史的ショットやその他の視点からのヒントを利用してショット遷移決定を行う新しいアプローチである時間的・文脈的変換器を提案する。
論文 参考訳(メタデータ) (2022-10-17T04:11:23Z) - Deep Homography Estimation in Dynamic Surgical Scenes for Laparoscopic
Camera Motion Extraction [6.56651216023737]
腹腔鏡下手術の映像から腹腔鏡ホルダーの動作を抽出する手法を提案する。
我々は、新たに取得したカメラモーションフリーda Vinci画像シーケンスのデータセットに、カメラモーションを合成的に付加する。
提案手法は,我々のカメラモーションフリーda Vinci手術データセットから腹腔鏡下手術の映像へ移行し,古典的ホモグラフィー推定手法の双方,精度41%,CPU上でのランタイムを43%上回る結果を得た。
論文 参考訳(メタデータ) (2021-09-30T13:05:37Z) - Predicting the Timing of Camera Movements From the Kinematics of
Instruments in Robotic-Assisted Surgery Using Artificial Neural Networks [1.0965065178451106]
本稿では,人工知能を用いてカメラの動きを予測するための予測手法を提案する。
ブタモデルを用いたロボット支援手術訓練中に記録した手術器具のキネマティクスデータを用いて検討した。
その結果,装置のキネマティックデータを用いて,カメラの動きがいつ起こるのかを予測し,セグメント長やアンサンブルサイズの違いによる性能評価を行った。
論文 参考訳(メタデータ) (2021-09-23T07:57:27Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。