論文の概要: Shifted-Windows Transformers for the Detection of Cerebral Aneurysms in
Microsurgery
- arxiv url: http://arxiv.org/abs/2303.09648v1
- Date: Thu, 16 Mar 2023 20:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:16:23.834867
- Title: Shifted-Windows Transformers for the Detection of Cerebral Aneurysms in
Microsurgery
- Title(参考訳): 微小手術における大動脈瘤検出のためのシフトウィンドウトランスフォーマー
- Authors: Jinfan Zhou, William Muirhead, Simon C. Williams, Danail Stoyanov,
Hani J. Marcus, and Evangelos B. Mazomenos
- Abstract要約: 本稿では,フレームレベルの専門家アノテーションを用いた16の手術ビデオを含むMACSデータセットについて紹介する。
手術用顕微鏡の視野に存在する大動脈瘤とビデオフレームを識別する手術シーン理解のための学習手法を提案する。
提案手法は, 独立した集合を用いた多次元クロスバリデーション実験と, 人間の10名に対する15枚の画像集合を用いて評価した。
- 参考スコア(独自算出の注目度): 8.468248593085525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Microsurgical Aneurysm Clipping Surgery (MACS) carries a high risk
for intraoperative aneurysm rupture. Automated recognition of instances when
the aneurysm is exposed in the surgical video would be a valuable reference
point for neuronavigation, indicating phase transitioning and more importantly
designating moments of high risk for rupture. This article introduces the MACS
dataset containing 16 surgical videos with frame-level expert annotations and
proposes a learning methodology for surgical scene understanding identifying
video frames with the aneurysm present in the operating microscope's
field-of-view. Methods: Despite the dataset imbalance (80% no presence, 20%
presence) and developed without explicit annotations, we demonstrate the
applicability of Transformer-based deep learning architectures (MACSSwin-T,
vidMACSSwin-T) to detect the aneurysm and classify MACS frames accordingly. We
evaluate the proposed models in multiple-fold cross-validation experiments with
independent sets and in an unseen set of 15 images against 10 human experts
(neurosurgeons). Results: Average (across folds) accuracy of 80.8% (range
78.5%-82.4%) and 87.1% (range 85.1%-91.3%) is obtained for the image- and
video-level approach respectively, demonstrating that the models effectively
learn the classification task. Qualitative evaluation of the models' class
activation maps show these to be localized on the aneurysm's actual location.
Depending on the decision threshold, MACSWin-T achieves 66.7% to 86.7% accuracy
in the unseen images, compared to 82% of human raters, with moderate to strong
correlation.
- Abstract(参考訳): 目的:微小動脈瘤クリッピング手術(MACS)は術中大動脈瘤破裂のリスクが高い。
手術ビデオで大動脈瘤が露出した場合の症例の自動認識は、神経ナビゲーションの貴重な基準点であり、相転移を示し、破壊のリスクの高い瞬間を示す。
本稿では,フレームレベルの専門家アノテーションを備えた16の手術用ビデオを含むMACSデータセットについて紹介し,手術用顕微鏡の視野に存在する大動脈瘤とビデオ用フレームを識別するための学習手法を提案する。
方法: データセットの不均衡(80%は存在せず,20%は存在せず, 明示的なアノテーションを伴わずに開発されたにもかかわらず, トランスフォーマーベースのディープラーニングアーキテクチャ(MACSSwin-T, vidMACSSwin-T)の適用性を実証し, 大動脈瘤の検出とMACSフレームの分類を行った。
提案手法は, 独立した集合を用いた多次元クロスバリデーション実験と, 人間の10人の専門家(神経外科医)に対する15枚の画像で評価した。
結果: 画像および映像レベルのアプローチでは, 平均80.8% (78.5%-82.4%) と87.1% (85.1%-91.3%) の精度が得られた。
モデルのクラスアクティベーションマップの質的評価は、これらは動脈瘤の実際の場所に局在していることを示している。
判定しきい値によっては、マッスウィン-tは66.7%から86.7%の精度を達成し、人間のパーサーの82%に対して中程度から強い相関がある。
関連論文リスト
- Intraoperative Glioma Segmentation with YOLO + SAM for Improved Accuracy in Tumor Resection [1.9461727843485295]
グリオーマは、健康な組織との類似性から、重要な外科的課題を呈する。
MRI画像は、脳のシフトなどの要因により、手術中は効果がないことが多い。
本稿では,You Only Look Once Version 8 (Yv8) と Segment Anything Model Vision Transformer-base を組み合わせたディープラーニングパイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-27T07:58:08Z) - Enhancing COVID-19 Diagnosis through Vision Transformer-Based Analysis
of Chest X-ray Images [0.0]
この研究は、生の胸部X線画像を利用して、新型コロナウイルスの診断を自動化するための革新的な枠組みを提唱している。
開発されたモデルはバイナリ分類性能で評価され、通常の症例と区別される。
提案モデルでは,2進分類では99.92%,99.84%,第三進分類では97.95%,第四進分類では86.48%,第四進分類では86.81%であった。
論文 参考訳(メタデータ) (2023-06-12T07:34:28Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Towards Ultrafast MRI via Extreme k-Space Undersampling and
Superresolution [65.25508348574974]
我々は、オリジナルのfastMRIチャレンジを参照するすべての公開論文によって報告されたMRI加速係数を下回る。
低解像を補うための強力な深層学習に基づく画像強化手法を検討する。
復元された画像の品質は他の方法よりも高く、MSEは0.00114、PSNRは29.6 dB、SSIMは0.956 x16加速係数である。
論文 参考訳(メタデータ) (2021-03-04T10:45:01Z) - Accurate Prostate Cancer Detection and Segmentation on Biparametric MRI
using Non-local Mask R-CNN with Histopathological Ground Truth [0.0]
我々は,bp-MRIにおける前立腺内病変の検出とセグメンテーションを改善するため,ディープラーニングモデルを開発した。
前立腺切除術による脱線をMRIでトレーニングした。
前立腺切除術をベースとした非局所的なMask R-CNNは、微調整と自己訓練により、すべての評価基準を大幅に改善した。
論文 参考訳(メタデータ) (2020-10-28T21:07:09Z) - Spinal Metastases Segmentation in MR Imaging using Deep Convolutional
Neural Networks [0.0]
本研究の目的は,深層学習を用いた診断MR画像における脊髄転移の分節化である。
U-Net様アーキテクチャを用いて40例の臨床検査を行った。
専門的な注釈付き病変のセグメンテーションと比較すると、Diceの平均スコアは77.6%、平均感度は78.9%という有望な結果を得た。
論文 参考訳(メタデータ) (2020-01-08T10:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。