論文の概要: Automatic Detection of Out-of-body Frames in Surgical Videos for Privacy
Protection Using Self-supervised Learning and Minimal Labels
- arxiv url: http://arxiv.org/abs/2303.18106v1
- Date: Fri, 31 Mar 2023 14:53:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 13:35:55.257289
- Title: Automatic Detection of Out-of-body Frames in Surgical Videos for Privacy
Protection Using Self-supervised Learning and Minimal Labels
- Title(参考訳): 自己教師型学習と最小ラベルを用いたプライバシー保護のための手術用ビデオの体外フレームの自動検出
- Authors: Ziheng Wang, Conor Perreault, Xi Liu, Anthony Jarc
- Abstract要約: 手術映像における身体外フレームを正確に検出するフレームワークを提案する。
我々は大量の未ラベルの内視鏡画像を用いて、自己監督的な方法で意味のある表現を学習する。
- 参考スコア(独自算出の注目度): 4.356941104145803
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Endoscopic video recordings are widely used in minimally invasive
robot-assisted surgery, but when the endoscope is outside the patient's body,
it can capture irrelevant segments that may contain sensitive information. To
address this, we propose a framework that accurately detects out-of-body frames
in surgical videos by leveraging self-supervision with minimal data labels. We
use a massive amount of unlabeled endoscopic images to learn meaningful
representations in a self-supervised manner. Our approach, which involves
pre-training on an auxiliary task and fine-tuning with limited supervision,
outperforms previous methods for detecting out-of-body frames in surgical
videos captured from da Vinci X and Xi surgical systems. The average F1 scores
range from 96.00 to 98.02. Remarkably, using only 5% of the training labels,
our approach still maintains an average F1 score performance above 97,
outperforming fully-supervised methods with 95% fewer labels. These results
demonstrate the potential of our framework to facilitate the safe handling of
surgical video recordings and enhance data privacy protection in minimally
invasive surgery.
- Abstract(参考訳): 内視鏡的ビデオ記録は、最小侵襲のロボット補助手術で広く用いられているが、内視鏡が患者の体外にある場合、機密情報を含む可能性のある無関係なセグメントをキャプチャすることができる。
そこで本研究では,最小限のデータラベルを用いたセルフスーパービジョンを利用して,手術ビデオの身体外フレームを正確に検出するフレームワークを提案する。
有意義な表現を自己監督的に学習するために,大量の無ラベルの内視鏡画像を用いる。
da Vinci X と Xi の手術映像において, 補助作業の事前訓練や, 監督の制限による微調整を伴い, 従来の身体外フレームの検出方法よりも優れていた。
f1の平均得点は96.00から98.02である。
注目すべきは、トレーニングラベルの5%しか使用せず、平均的なF1スコアは97以上であり、95%少ないラベルで完全に教師された手法よりも優れています。
これらの結果は,低侵襲手術における手術ビデオ記録の安全な処理とデータのプライバシ保護を促進するための枠組みの可能性を実証するものである。
関連論文リスト
- AMNCutter: Affinity-Attention-Guided Multi-View Normalized Cutter for Unsupervised Surgical Instrument Segmentation [7.594796294925481]
我々は,Multi-View Normalized Cutter(m-NCutter)という新しいモジュールを特徴とするラベルフリーな教師なしモデルを提案する。
本モデルでは, パッチ親和性を利用したグラフカット損失関数を用いて, 疑似ラベルの不要化を図った。
我々は、複数のSISデータセットにわたる包括的な実験を行い、事前訓練されたモデルとして、アプローチの最先端(SOTA)パフォーマンス、堅牢性、および例外的なポテンシャルを検証する。
論文 参考訳(メタデータ) (2024-11-06T06:33:55Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Weakly-Supervised Surgical Phase Recognition [19.27227976291303]
本研究では,グラフ分割の概念と自己教師付き学習を結合して,フレーム単位の位相予測のためのランダムウォーク解を導出する。
腹腔鏡下胆嚢摘出術ビデオのColec80データセットを用いて実験を行い,本法の有効性を確認した。
論文 参考訳(メタデータ) (2023-10-26T07:54:47Z) - Video object detection for privacy-preserving patient monitoring in
intensive care [0.0]
ビデオフレームの時間的継承における情報を活用する新しい手法を提案する。
我々のメソッドは標準のYOLOv5ベースラインモデルを+1.7%mAP@.5で上回り、プロプライエタリなデータセットで10倍以上高速にトレーニングします。
論文 参考訳(メタデータ) (2023-06-26T11:52:22Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - Self-Supervised Learning from Unlabeled Fundus Photographs Improves
Segmentation of the Retina [4.815051667870375]
基礎撮影は網膜イメージングの第一の方法であり、糖尿病網膜症予防に必須である。
現在のセグメンテーション法は、実際の臨床応用に典型的な画像条件や病理の多様性に対して堅牢ではない。
コントラスト型自己教師型学習を用いて,EyePACSデータセットの多種多様な未ラベル画像を利用する。
論文 参考訳(メタデータ) (2021-08-05T18:02:56Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。