論文の概要: WS-YOLO: Weakly Supervised Yolo Network for Surgical Tool Localization
in Endoscopic Videos
- arxiv url: http://arxiv.org/abs/2309.13404v1
- Date: Sat, 23 Sep 2023 15:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 20:02:17.415090
- Title: WS-YOLO: Weakly Supervised Yolo Network for Surgical Tool Localization
in Endoscopic Videos
- Title(参考訳): WS-YOLO:鏡視下手術用ツールローカライゼーション用ヨロネットワーク
- Authors: Rongfeng Wei, Jinlin Wu, You Pang, and Zhen Chen
- Abstract要約: ロボット支援手術では、手術ツールのカテゴリのような潜在的な情報的データをキャプチャすることができる。
我々は,ダ・ヴィンチ手術ロボットが出力する粗粒度意味情報から,位置とカテゴリーの細粒度意味情報を生成するためのWakly Supervised Yolo Network (WS-YOLO)を提案した。
- 参考スコア(独自算出の注目度): 3.487327636814225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being able to automatically detect and track surgical instruments in
endoscopic video recordings would allow for many useful applications that could
transform different aspects of surgery. In robot-assisted surgery, the
potentially informative data like categories of surgical tool can be captured,
which is sparse, full of noise and without spatial information. We proposed a
Weakly Supervised Yolo Network (WS-YOLO) for Surgical Tool Localization in
Endoscopic Videos, to generate fine-grained semantic information with location
and category from coarse-grained semantic information outputted by the da Vinci
surgical robot, which significantly diminished the necessary human annotation
labor while striking an optimal balance between the quantity of manually
annotated data and detection performance. The source code is available at
https://github.com/Breezewrf/Weakly-Supervised-Yolov8.
- Abstract(参考訳): 内視鏡的ビデオ記録で手術器具を自動的に検出し追跡できることは、手術のさまざまな側面を変換できる多くの有用な応用を可能にする。
ロボット支援手術では、手術ツールのカテゴリのような潜在的な情報的データをキャプチャすることができる。
そこで我々は,ダヴィンチ手術ロボットが出力する粗粒度意味情報から,位置とカテゴリの細粒度意味情報を生成するために,手動注記データの量と検出性能の最適なバランスを保ちながら,必要な注釈作業を大幅に減らした,内視鏡画像における手術ツールの局所化のための弱監督ヨーロネットワーク(WS-YOLO)を提案した。
ソースコードはhttps://github.com/Breezewrf/Weakly-Supervised-Yolov8で公開されている。
関連論文リスト
- Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、外科デジタルツイン(SDT)とも呼ばれる現実世界の手術の仮想レプリカを作成する過程である。
現実的な条件下での脊髄手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - SAMSNeRF: Segment Anything Model (SAM) Guides Dynamic Surgical Scene
Reconstruction by Neural Radiance Field (NeRF) [4.740415113160021]
本稿では,Segment Anything Model(SAM)とNeRF技術を組み合わせたSAMSNeRFという新しい手法を提案する。
内視鏡下外科的画像を用いた実験の結果,高忠実度ダイナミックな手術シーンの再構築に成功していることが示された。
論文 参考訳(メタデータ) (2023-08-22T20:31:00Z) - Learning Multi-modal Representations by Watching Hundreds of Surgical
Video Lectures [54.376834698110684]
本研究では,オープンな外科的eラーニングプラットフォームを通じて利用可能な手術ビデオ講義が,効果的な監視信号を提供することができるという考えを提起した。
我々は複数の補完的な自動音声認識システムを用いてテキストの書き起こしを生成する。
次に、多モーダル表現学習のための新しい方法、Surg - Surgery Vision Language Pre-trainingを提案する。
論文 参考訳(メタデータ) (2023-07-27T22:38:12Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - AutoLaparo: A New Dataset of Integrated Multi-tasks for Image-guided
Surgical Automation in Laparoscopic Hysterectomy [42.20922574566824]
ヒステリクトミー手術における学習ベースの自動化を容易にするために,複数の画像に基づく知覚タスクを組み込んだ最初の統合データセットを提示,リリースする。
我々のAutoLaparoデータセットは、全子宮摘出術のフル長ビデオに基づいて開発されている。
具体的には、外科的ワークフロー認識、腹腔鏡運動予測、機器とキー解剖のセグメンテーションを含む、3つの異なる高相関なタスクがデータセットで定式化されている。
論文 参考訳(メタデータ) (2022-08-03T13:17:23Z) - FUN-SIS: a Fully UNsupervised approach for Surgical Instrument
Segmentation [16.881624842773604]
FUN-SISについて述べる。
我々は、暗黙の動作情報と楽器形状に依存して、完全に装飾されていない内視鏡ビデオに基づいてフレーム単位のセグメンテーションモデルを訓練する。
手術器具のセグメンテーションの完全教師なしの結果は, 完全に監督された最先端のアプローチとほぼ同等である。
論文 参考訳(メタデータ) (2022-02-16T15:32:02Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。