論文の概要: Preserving Privacy in Surgical Video Analysis Using Artificial
Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in
Endoscopic Videos
- arxiv url: http://arxiv.org/abs/2301.07053v2
- Date: Wed, 7 Jun 2023 11:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 19:32:25.735412
- Title: Preserving Privacy in Surgical Video Analysis Using Artificial
Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in
Endoscopic Videos
- Title(参考訳): 人工知能を用いた手術ビデオ解析におけるプライバシ保護: 内視鏡映像における体外シーン識別のためのディープラーニング分類器
- Authors: Jo\"el L. Lavanchy, Armine Vardazaryan, Pietro Mascagni, AI4SafeChole
Consortium, Didier Mutter, Nicolas Padoy
- Abstract要約: 内視鏡的映像における身体外シーンの同定は,患者や手術室のスタッフのプライバシーを守る上で重要である。
深層学習モデルは,12種類の腹腔鏡下手術とロボット手術の内的データセットを用いて訓練し,評価した。
- 参考スコア(独自算出の注目度): 3.3162899408212922
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Objective: To develop and validate a deep learning model for the
identification of out-of-body images in endoscopic videos. Background: Surgical
video analysis facilitates education and research. However, video recordings of
endoscopic surgeries can contain privacy-sensitive information, especially if
out-of-body scenes are recorded. Therefore, identification of out-of-body
scenes in endoscopic videos is of major importance to preserve the privacy of
patients and operating room staff. Methods: A deep learning model was trained
and evaluated on an internal dataset of 12 different types of laparoscopic and
robotic surgeries. External validation was performed on two independent
multicentric test datasets of laparoscopic gastric bypass and cholecystectomy
surgeries. All images extracted from the video datasets were annotated as
inside or out-of-body. Model performance was evaluated compared to human ground
truth annotations measuring the receiver operating characteristic area under
the curve (ROC AUC). Results: The internal dataset consisting of 356,267 images
from 48 videos and the two multicentric test datasets consisting of 54,385 and
58,349 images from 10 and 20 videos, respectively, were annotated. Compared to
ground truth annotations, the model identified out-of-body images with 99.97%
ROC AUC on the internal test dataset. Mean $\pm$ standard deviation ROC AUC on
the multicentric gastric bypass dataset was 99.94$\pm$0.07% and 99.71$\pm$0.40%
on the multicentric cholecystectomy dataset, respectively. Conclusion: The
proposed deep learning model can reliably identify out-of-body images in
endoscopic videos. The trained model is publicly shared. This facilitates
privacy preservation in surgical video analysis.
- Abstract(参考訳): 目的: 内視鏡映像における体外画像の同定のための深層学習モデルの開発と検証。
背景: 手術ビデオ解析は教育と研究を促進する。
しかし、内視鏡下手術の映像記録にはプライバシーに敏感な情報が含まれている。
したがって、内視鏡映像における体外シーンの同定は、患者や手術室スタッフのプライバシーを守る上で重要である。
方法:12種類の腹腔鏡下手術とロボット手術の内的データセットを用いて深層学習モデルを訓練し,評価した。
腹腔鏡下胃バイパス術と胆嚢摘出術の2つの独立した多心性検査データセットで外部検証を行った。
ビデオデータセットから抽出された画像はすべて、内部または外部としてアノテートされた。
曲線下特性領域(ROC AUC)を計測した人為的真実アノテーションと比較して, モデル性能を評価した。
結果:48本の動画から356,267枚の画像からなる内部データセットと10本と20本の動画から54,385枚と58,349枚の多心性テストデータセットを注釈した。
地上の真実のアノテーションと比較すると、このモデルは内部テストデータセット上で99.97%のLOC AUCで体外画像を特定した。
多心性胃バイパスデータセットにおける標準偏差ROC AUCの平均値は99.94$\pm$0.07%、多心性胆嚢摘出データセットでは99.71$\pm$0.40%であった。
結論: 提案する深層学習モデルは, 内視鏡映像中の体外画像を確実に識別できる。
トレーニングされたモデルは公開されています。
これにより、手術ビデオ解析におけるプライバシー保護が促進される。
関連論文リスト
- MRAnnotator: A Multi-Anatomy Deep Learning Model for MRI Segmentation [31.000474738216155]
モデル開発と評価のために2つのデータセットをキュレートし、注釈を付けた。
開発したモデルでは,MRI画像上で49の解剖学的構造の堅牢かつ一般化可能なセグメンテーションが達成されている。
論文 参考訳(メタデータ) (2024-02-01T21:43:27Z) - Automated Real Time Delineation of Supraclavicular Brachial Plexus in
Neck Ultrasonography Videos: A Deep Learning Approach [0.0]
本研究は, 上鎖骨・間腕神経叢の系統的スキャンを行った227名の被験者を対象とした。
計41,000の動画フレームが、経験豊富な麻酔科医によって、物体追跡とアクティブな輪郭アルゴリズムによる部分的自動化を用いて注釈付けされた。
深層学習モデルは,頚部超音波画像における上腕神経叢のリアルタイムセグメンテーションに高い精度と信頼性で利用することができる。
論文 参考訳(メタデータ) (2023-08-07T16:40:19Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - A Temporal Learning Approach to Inpainting Endoscopic Specularities and
Its effect on Image Correspondence [13.25903945009516]
本稿では,時間的生成的対位ネットワーク(GAN)を用いて,隠蔽解剖学を特異性の下で描くことを提案する。
これは、胃内視鏡(Hyper-Kvasir)の生検データを用いて、完全に教師なしの方法で達成される。
また,3次元再構成とカメラモーション推定の基盤となるコンピュータビジョンタスクにおける本手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-03-31T13:14:00Z) - Deep learning-based detection of intravenous contrast in computed
tomography scans [0.7313653675718069]
CTスキャンにおける静脈内(IV)コントラストの同定は、モデル開発と試験のためのデータキュレーションの鍵となる要素である。
我々は,CTスキャン内でIVコントラストを識別するCNNベースのディープラーニングプラットフォームを開発し,検証した。
論文 参考訳(メタデータ) (2021-10-16T00:46:45Z) - The pitfalls of using open data to develop deep learning solutions for
COVID-19 detection in chest X-rays [64.02097860085202]
深層学習モデルは、胸部X線から新型コロナウイルスを識別するために開発された。
オープンソースデータのトレーニングやテストでは,結果は異例です。
データ分析とモデル評価は、人気のあるオープンソースデータセットであるCOVIDxが実際の臨床問題を代表していないことを示している。
論文 参考訳(メタデータ) (2021-09-14T10:59:11Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Simulation of Brain Resection for Cavity Segmentation Using
Self-Supervised and Semi-Supervised Learning [36.121815158077446]
畳み込みニューラルネットワーク(CNN)は最先端の画像セグメンテーション技術である。
CNNはトレーニングのために大量の注釈付きデータを必要とする。
自己教師付き学習は、ラベルのないデータからトレーニングインスタンスを生成するために使用することができる。
論文 参考訳(メタデータ) (2020-06-28T20:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。