論文の概要: Preserving Privacy in Surgical Video Analysis Using Artificial
Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in
Endoscopic Videos
- arxiv url: http://arxiv.org/abs/2301.07053v1
- Date: Tue, 17 Jan 2023 18:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 13:25:24.058921
- Title: Preserving Privacy in Surgical Video Analysis Using Artificial
Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in
Endoscopic Videos
- Title(参考訳): 人工知能を用いた手術ビデオ解析におけるプライバシ保護: 内視鏡映像における体外シーン識別のためのディープラーニング分類器
- Authors: Jo\"el L. Lavanchy, Armine Vardazaryan, Pietro Mascagni, AI4SafeChole
Consortium, Didier Mutter, Nicolas Padoy
- Abstract要約: 内視鏡的映像における身体外シーンの同定は,患者や手術室のスタッフのプライバシーを守る上で重要である。
深層学習モデルは,12種類の腹腔鏡下手術とロボット手術の内的データセットを用いて訓練し,評価した。
- 参考スコア(独自算出の注目度): 3.3162899408212922
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Objective: To develop and validate a deep learning model for the
identification of out-of-body images in endoscopic videos. Background: Surgical
video analysis facilitates education and research. However, video recordings of
endoscopic surgeries can contain privacy-sensitive information, especially if
out-of-body scenes are recorded. Therefore, identification of out-of-body
scenes in endoscopic videos is of major importance to preserve the privacy of
patients and operating room staff. Methods: A deep learning model was trained
and evaluated on an internal dataset of 12 different types of laparoscopic and
robotic surgeries. External validation was performed on two independent
multicentric test datasets of laparoscopic gastric bypass and cholecystectomy
surgeries. All images extracted from the video datasets were annotated as
inside or out-of-body. Model performance was evaluated compared to human ground
truth annotations measuring the receiver operating characteristic area under
the curve (ROC AUC). Results: The internal dataset consisting of 356,267 images
from 48 videos and the two multicentric test datasets consisting of 54,385 and
58,349 images from 10 and 20 videos, respectively, were annotated. Compared to
ground truth annotations, the model identified out-of-body images with 99.97%
ROC AUC on the internal test dataset. Mean $\pm$ standard deviation ROC AUC on
the multicentric gastric bypass dataset was 99.94$\pm$0.07% and 99.71$\pm$0.40%
on the multicentric cholecystectomy dataset, respectively. Conclusion: The
proposed deep learning model can reliably identify out-of-body images in
endoscopic videos. The trained model is publicly shared. This facilitates
privacy preservation in surgical video analysis.
- Abstract(参考訳): 目的: 内視鏡映像における体外画像の同定のための深層学習モデルの開発と検証。
背景: 手術ビデオ解析は教育と研究を促進する。
しかし、内視鏡下手術の映像記録にはプライバシーに敏感な情報が含まれている。
したがって、内視鏡映像における体外シーンの同定は、患者や手術室スタッフのプライバシーを守る上で重要である。
方法:12種類の腹腔鏡下手術とロボット手術の内的データセットを用いて深層学習モデルを訓練し,評価した。
腹腔鏡下胃バイパス術と胆嚢摘出術の2つの独立した多心性検査データセットで外部検証を行った。
ビデオデータセットから抽出された画像はすべて、内部または外部としてアノテートされた。
曲線下特性領域(ROC AUC)を計測した人為的真実アノテーションと比較して, モデル性能を評価した。
結果:48本の動画から356,267枚の画像からなる内部データセットと10本と20本の動画から54,385枚と58,349枚の多心性テストデータセットを注釈した。
地上の真実のアノテーションと比較すると、このモデルは内部テストデータセット上で99.97%のLOC AUCで体外画像を特定した。
多心性胃バイパスデータセットにおける標準偏差ROC AUCの平均値は99.94$\pm$0.07%、多心性胆嚢摘出データセットでは99.71$\pm$0.40%であった。
結論: 提案する深層学習モデルは, 内視鏡映像中の体外画像を確実に識別できる。
トレーニングされたモデルは公開されています。
これにより、手術ビデオ解析におけるプライバシー保護が促進される。
関連論文リスト
- Breast tumor classification based on self-supervised contrastive learning from ultrasound videos [7.825379326219145]
我々は,胸部超音波ビデオクリップから表現を学習するために,トリプルトネットワークと自己教師付きコントラスト学習手法を採用した。
本モデルでは,受信機動作特性曲線 (AUC) の0.952の領域を達成した。
提案フレームワークはラベル付きデータに対する需要を大幅に減らし,乳房超音波画像の自動診断に活用する可能性を秘めている。
論文 参考訳(メタデータ) (2024-08-20T07:16:01Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Vision-Based Neurosurgical Guidance: Unsupervised Localization and Camera-Pose Prediction [41.91807060434709]
内視鏡的処置中に自分自身を位置決めすることは、区別可能なテクスチャやランドマークが欠如しているため、問題となることがある。
本稿では,解剖学的認識に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2024-05-15T14:09:11Z) - MRAnnotator: A Multi-Anatomy Deep Learning Model for MRI Segmentation [31.000474738216155]
モデル開発と評価のために2つのデータセットをキュレートし、注釈を付けた。
開発したモデルでは,MRI画像上で49の解剖学的構造の堅牢かつ一般化可能なセグメンテーションが達成されている。
論文 参考訳(メタデータ) (2024-02-01T21:43:27Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。