論文の概要: Deep learning approaches to surgical video segmentation and object detection: A Scoping Review
- arxiv url: http://arxiv.org/abs/2502.16459v1
- Date: Sun, 23 Feb 2025 06:31:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:25.809383
- Title: Deep learning approaches to surgical video segmentation and object detection: A Scoping Review
- Title(参考訳): 深層学習による手術映像のセグメンテーションと物体検出:Scoping Review
- Authors: Devanish N. Kamtam, Joseph B. Shrager, Satya Deepya Malla, Nicole Lin, Juan J. Cardona, Jake J. Kim, Clarence Hu,
- Abstract要約: 2014年から2024年にかけて,解剖学的構造における意味的セグメンテーションと対象検出に関する研究のスコーピングレビューを行った。
第一の目的は,手術ビデオにおける意味的セグメンテーションの最先端性能を評価することである。
第2の目的は、DLモデルの検討、臨床応用への進歩、および手術ビデオにおける臓器・腫瘍の分節化に関する具体的な課題であった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Introduction: Computer vision (CV) has had a transformative impact in biomedical fields such as radiology, dermatology, and pathology. Its real-world adoption in surgical applications, however, remains limited. We review the current state-of-the-art performance of deep learning (DL)-based CV models for segmentation and object detection of anatomical structures in videos obtained during surgical procedures. Methods: We conducted a scoping review of studies on semantic segmentation and object detection of anatomical structures published between 2014 and 2024 from 3 major databases - PubMed, Embase, and IEEE Xplore. The primary objective was to evaluate the state-of-the-art performance of semantic segmentation in surgical videos. Secondary objectives included examining DL models, progress toward clinical applications, and the specific challenges with segmentation of organs/tissues in surgical videos. Results: We identified 58 relevant published studies. These focused predominantly on procedures from general surgery [20(34.4%)], colorectal surgery [9(15.5%)], and neurosurgery [8(13.8%)]. Cholecystectomy [14(24.1%)] and low anterior rectal resection [5(8.6%)] were the most common procedures addressed. Semantic segmentation [47(81%)] was the primary CV task. U-Net [14(24.1%)] and DeepLab [13(22.4%)] were the most widely used models. Larger organs such as the liver (Dice score: 0.88) had higher accuracy compared to smaller structures such as nerves (Dice score: 0.49). Models demonstrated real-time inference potential ranging from 5-298 frames-per-second (fps). Conclusion: This review highlights the significant progress made in DL-based semantic segmentation for surgical videos with real-time applicability, particularly for larger organs. Addressing challenges with smaller structures, data availability, and generalizability remains crucial for future advancements.
- Abstract(参考訳): 紹介:コンピュータビジョン(CV)は、放射線学、皮膚学、病理学などの生体医学分野に変革をもたらした。
しかし、外科的応用における実際の採用は依然として限られている。
本稿では, 深層学習(DL)を用いたCVモデルの現状を, 外科的手術で得られたビデオの解剖学的構造の検出とセグメンテーションについて概観する。
方法: 2014年から2024年の間に発行された3つの主要なデータベース(PubMed, Embase, IEEE Xplore)から, 意味的セグメンテーションと解剖学的構造のオブジェクト検出に関する研究のスコーピングレビューを行った。
第一の目的は,手術ビデオにおける意味的セグメンテーションの最先端性能を評価することである。
目的は, DLモデルの検討, 臨床応用に向けた進展, 外科的ビデオにおける臓器・組織の分節化に関する具体的な課題であった。
結果: 58の関連論文を同定した。
20(34.4%)],9(15.5%)],神経外科(8(13.8%))の手術に主に焦点をあてた。
胆嚢摘出術(14(24.1%)と低位直腸切除術(5(8.6%)が最も多い。
セマンティックセグメンテーション[47(81%)]が主なCV課題であった。
U-Net [14(24.1%)とDeepLab [13(22.4%)は最も広く使われているモデルである。
肝臓などのより大きな臓器(Dice score: 0.88)は神経などのより小さな構造(Dice score: 0.49)に比べて精度が高かった。
モデルでは5-298フレーム/秒(fps)からリアルタイム推論の可能性を示した。
結論: 本総説では, リアルタイムな手術用ビデオ, 特に大臓器において, DLベースのセマンティックセマンティックセマンティックセグメンテーションの顕著な進歩について述べる。
より小さな構造、データ可用性、一般化可能性による課題への対処は、今後の進歩に不可欠である。
関連論文リスト
- Is Segment Anything Model 2 All You Need for Surgery Video Segmentation? A Systematic Evaluation [25.459372606957736]
本稿では,ゼロショット手術映像分割作業におけるSAM2モデルの性能を体系的に評価する。
我々は、異なるプロンプト戦略やロバスト性など、異なる構成で実験を行った。
論文 参考訳(メタデータ) (2024-12-31T16:20:05Z) - Phase-Informed Tool Segmentation for Manual Small-Incision Cataract Surgery [5.346116837157231]
白内障手術は世界中で最も一般的な手術であり、発展途上国では非常に高い負担がかかる。
現存する研究は主にパコ白内障手術に焦点を当てており、白内障治療が最も必要とされる地域では利用できない高価な技術である。
手動小切開白内障手術(英: Manual Small-Incision Cataract Surgery, MICS)は、手動小切開白内障手術(英語版) (MSICS) が好まれる低コストで高速な手術法である。
今回紹介するSankara-MSICSは,3,527フレームと3,527フレームの3,53本の手術用ビデオを含む,最初の包括的データセットである。
論文 参考訳(メタデータ) (2024-11-25T09:22:42Z) - A novel open-source ultrasound dataset with deep learning benchmarks for
spinal cord injury localization and anatomical segmentation [1.02101998415327]
ブタ脊髄の矢状切片からなる10,223モード(Bモード)画像の超音波データセットを提案する。
損傷部位をローカライズするために,いくつかの最先端オブジェクト検出アルゴリズムの性能指標をベンチマークした。
ヒトの超音波脊髄画像におけるセグメンテーションモデルのゼロショット一般化能力を評価する。
論文 参考訳(メタデータ) (2024-09-24T20:22:59Z) - SURGIVID: Annotation-Efficient Surgical Video Object Discovery [42.16556256395392]
手術シーンのセマンティックセグメンテーションのためのアノテーション効率のよいフレームワークを提案する。
我々は,画像に基づく自己監督型物体発見法を用いて,外科的ビデオにおいて最も有能なツールや解剖学的構造を同定する。
完全教師付きセグメンテーションモデルを用いて,36のアノテーションラベルで強化した無教師付きセットアップでは,同程度のローカライゼーション性能を示す。
論文 参考訳(メタデータ) (2024-09-12T07:12:20Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Semantic segmentation of surgical hyperspectral images under geometric
domain shifts [69.91792194237212]
本稿では、幾何学的アウト・オブ・ディストリビューション(OOD)データの存在下で、最先端のセマンティックセグメンテーションネットワークを初めて分析する。
有機移植(Organ transplantation)と呼ばれる専用の拡張技術により、一般化可能性にも対処する。
提案手法は,SOA DSCの最大67 % (RGB) と90% (HSI) を改善し,実際のOODテストデータ上での分配内性能と同等の性能を示す。
論文 参考訳(メタデータ) (2023-03-20T09:50:07Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。