論文の概要: Disturbance-Free Surgical Video Generation from Multi-Camera Shadowless Lamps for Open Surgery
- arxiv url: http://arxiv.org/abs/2512.08577v1
- Date: Tue, 09 Dec 2025 13:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.970781
- Title: Disturbance-Free Surgical Video Generation from Multi-Camera Shadowless Lamps for Open Surgery
- Title(参考訳): 開腹手術用マルチカメラシャドウレスランプからの外乱自由手術ビデオ生成
- Authors: Yuna Kato, Shohei Mori, Hideo Saito, Yoshifumi Takatsume, Hiroki Kajita, Mariko Isogawa,
- Abstract要約: 提案手法は, 照明装置が移動し, 認識するフレームを特定し, 被写体を最小閉塞で選択し, 一定の視点から手術現場を連続的に提示する映像を生成する。
従来手法に比べて, 手術領域の確認が容易で, 映像視聴時の快適さも優れていた。
- 参考スコア(独自算出の注目度): 12.046186466617696
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video recordings of open surgeries are greatly required for education and research purposes. However, capturing unobstructed videos is challenging since surgeons frequently block the camera field of view. To avoid occlusion, the positions and angles of the camera must be frequently adjusted, which is highly labor-intensive. Prior work has addressed this issue by installing multiple cameras on a shadowless lamp and arranging them to fully surround the surgical area. This setup increases the chances of some cameras capturing an unobstructed view. However, manual image alignment is needed in post-processing since camera configurations change every time surgeons move the lamp for optimal lighting. This paper aims to fully automate this alignment task. The proposed method identifies frames in which the lighting system moves, realigns them, and selects the camera with the least occlusion to generate a video that consistently presents the surgical field from a fixed perspective. A user study involving surgeons demonstrated that videos generated by our method were superior to those produced by conventional methods in terms of the ease of confirming the surgical area and the comfort during video viewing. Additionally, our approach showed improvements in video quality over existing techniques. Furthermore, we implemented several synthesis options for the proposed view-synthesis method and conducted a user study to assess surgeons' preferences for each option.
- Abstract(参考訳): オープンサージリーのビデオ録画は、教育と研究の目的のために非常に必要である。
しかし、外科医がしばしばカメラの視野を塞ぐため、邪魔にならないビデオの撮影は困難である。
閉塞を避けるためには、カメラの位置と角度を頻繁に調整する必要がある。
これまでの作業では、シャドウレスランプに複数のカメラを設置し、手術領域を完全に囲むように配置することでこの問題に対処してきた。
この設定は、障害物のない景色を撮影するカメラの可能性を増大させる。
しかし、外科医が最適な照明のためにランプを動かすたびにカメラの構成が変わるため、手動による画像アライメントが後処理に必要である。
本稿では,このアライメントタスクを完全に自動化することを目的とする。
提案手法は, 照明装置が移動し, 認識するフレームを特定し, 被写体を最小閉塞で選択し, 一定の視点から手術現場を連続的に提示する映像を生成する。
従来手法に比べて, 手術領域の確認が容易で, 映像視聴時の快適さも優れていた。
さらに,既存の手法よりも画質が向上した。
さらに,提案手法にいくつかの合成オプションを実装し,各選択肢に対する外科医の嗜好を評価するためのユーザスタディを実施した。
関連論文リスト
- SurgLLM: A Versatile Large Multimodal Model with Spatial Focus and Temporal Awareness for Surgical Video Understanding [75.00667948967848]
SurgLLMフレームワークは、多用途の手術ビデオ理解タスクに適した、大規模なマルチモーダルモデルである。
外科的ビデオの空間的焦点を高めるために,SurgLLMの動画エンコーダのためのSurg-Pretraining(Surg-Pretraining)を最初に考案した。
外科的時間的知識をSurgLLMに組み込むため, インターリーブ型マルチモーダル埋め込みによる時間的推論を改善するために, 時間的対応型マルチモーダルチューニング(TM-Tuning)を提案する。
論文 参考訳(メタデータ) (2025-08-30T04:36:41Z) - TSP-OCS: A Time-Series Prediction for Optimal Camera Selection in Multi-Viewpoint Surgical Video Analysis [19.40791972868592]
本稿では,複数の同時録画ビデオストリームから最適なショットシーケンスを選択するための,教師付き学習に基づく時系列予測手法を提案する。
提案手法は,より長い時間的地平線を予測した場合であっても,従来の教師付き手法と比較して競争精度が向上する。
論文 参考訳(メタデータ) (2025-04-09T02:07:49Z) - High-Quality Virtual Single-Viewpoint Surgical Video: Geometric Autocalibration of Multiple Cameras in Surgical Lights [9.993966376446744]
カメラの視野における外科医の障害のため、閉塞のないビデオ生成は困難である。
これまでの作業では、複数のカメラを手術用照明に装着することでこの問題に対処してきた。
本稿では,このアライメントタスクを自動化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-05T14:45:32Z) - Vision-Based Neurosurgical Guidance: Unsupervised Localization and Camera-Pose Prediction [41.91807060434709]
内視鏡的処置中に自分自身を位置決めすることは、区別可能なテクスチャやランドマークが欠如しているため、問題となることがある。
本稿では,解剖学的認識に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-15T14:09:11Z) - BASED: Bundle-Adjusting Surgical Endoscopic Dynamic Video Reconstruction using Neural Radiance Fields [5.773068487121897]
内視鏡的映像から変形可能なシーンを再現することは,多くの応用において重要である。
我々の研究は、シーンの3D暗黙的表現を学習するために、NeRF(Neural Radiance Fields)アプローチを採用しています。
本稿では,ロボット手術の内視鏡的手術シーンについて述べる。
論文 参考訳(メタデータ) (2023-09-27T00:20:36Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical Video Lectures [50.09187683845788]
手術用コンピュータビジョンの応用の最近の進歩は、視覚のみのモデルによって駆動されている。
これらの手法は、固定されたオブジェクトカテゴリのセットを予測するために手動で注釈付き手術ビデオに依存する。
本研究では,オープンな外科的eラーニングプラットフォームを通じて提供される外科的ビデオ講義が,効果的な視覚と言語監督の信号を提供することができるという考えを提起した。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Deep Selection: A Fully Supervised Camera Selection Network for Surgery
Recordings [9.242157746114113]
手術用ランプに複数のカメラを埋め込んだ記録システムを用いる。
組込みカメラは複数のビデオシーケンスを取得できるため,手術の最良の視点でカメラを選択する作業に対処する。
手術現場の面積の大きさに基づいてカメラを選択する従来の方法とは異なり、複数のビデオシーケンスからカメラ選択確率を予測するディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T13:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。