論文の概要: Automated Cervical Os Segmentation for Camera-Guided, Speculum-Free Screening
- arxiv url: http://arxiv.org/abs/2509.10593v1
- Date: Fri, 12 Sep 2025 14:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.688603
- Title: Automated Cervical Os Segmentation for Camera-Guided, Speculum-Free Screening
- Title(参考訳): カメラ誘導・投機不要スクリーニングのための頚椎骨自動分割法
- Authors: Aoife McDonald-Bowyer, Anjana Wijekoon, Ryan Laurance Love, Katie Allan, Scott Colvin, Aleksandra Gentry-Maharaj, Adeola Olaitan, Danail Stoyanov, Agostino Stilli, Sophia Bano,
- Abstract要約: 本研究は,経血管内視鏡的画像における頸部骨のリアルタイム分割のための深層学習法について検討した。
DICE(0.50 pm 0.31)と検出レート(0.87 pm 0.33)を達成した。
これらの結果は、非専門的な使用をサポートするために、自動os認識を投機のない頸部検診装置に統合するための基盤を確立する。
- 参考スコア(独自算出の注目度): 38.85521544870542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cervical cancer is highly preventable, yet persistent barriers to screening limit progress toward elimination goals. Speculum-free devices that integrate imaging and sampling could improve access, particularly in low-resource settings, but require reliable visual guidance. This study evaluates deep learning methods for real-time segmentation of the cervical os in transvaginal endoscopic images. Five encoder-decoder architectures were compared using 913 frames from 200 cases in the IARC Cervical Image Dataset, annotated by gynaecologists. Performance was assessed using IoU, DICE, detection rate, and distance metrics with ten-fold cross-validation. EndoViT/DPT, a vision transformer pre-trained on surgical video, achieved the highest DICE (0.50 \pm 0.31) and detection rate (0.87 \pm 0.33), outperforming CNN-based approaches. External validation with phantom data demonstrated robust segmentation under variable conditions at 21.5 FPS, supporting real-time feasibility. These results establish a foundation for integrating automated os recognition into speculum-free cervical screening devices to support non-expert use in both high- and low-resource contexts.
- Abstract(参考訳): 頸部がんは非常に予防できるが、除去目標に対する限界進行のスクリーニングには永続的な障壁がある。
イメージングとサンプリングを統合する投機のないデバイスは、特に低リソース環境ではアクセスを改善するが、信頼できる視覚的ガイダンスを必要とする。
本研究は,経血管内視鏡的画像における頸部骨のリアルタイム分割のための深層学習法について検討した。
5つのエンコーダ・デコーダアーキテクチャを、IARC Cervical Image Datasetの200ケースの913フレームを用いて比較した。
IoU,DICE,検出率,距離測定を10倍のクロスバリデーションで評価した。
手術ビデオで事前訓練された視覚変換器であるEndoViT/DPTは、高いDICE(0.50 \pm 0.31)と検出率(0.87 \pm 0.33)を達成し、CNNベースのアプローチを上回った。
ファントムデータを用いた外的検証では, 変動条件下では21.5 FPSで頑健なセグメンテーションを示し, リアルタイム実現性をサポートした。
これらの結果は、高リソースと低リソースの両方で非専門家の使用をサポートするために、自動os認識を投機のない頸部検診装置に統合する基盤を確立する。
関連論文リスト
- A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - Real-Time Guidewire Tip Tracking Using a Siamese Network for Image-Guided Endovascular Procedures [27.037820619664654]
本稿では,心血管疾患に対する画像誘導治療におけるガイドワイヤチップ追跡タスクについて述べる。
デュアルアテンション機構を備えたシームズネットワークに基づく新しいトラッキングフレームワークは、堅牢なチップトラッキングのための自己と相互アテンション戦略を組み合わせたものである。
このフレームワークは、平均処理速度が57.2フレーム/秒であり、血管内イメージングの時間的要求を満たす。
論文 参考訳(メタデータ) (2025-06-25T02:34:00Z) - HMSViT: A Hierarchical Masked Self-Supervised Vision Transformer for Corneal Nerve Segmentation and Diabetic Neuropathy Diagnosis [3.8141400767898603]
糖尿病末梢神経障害(DPN)は糖尿病患者の約半数に影響を与え、早期発見を必要とする。
我々はHMSViT(HMSViT)を提案する。
HMSViTは、絶対位置符号化によるプーリングに基づく階層的・二重注意機構を採用し、効率的なマルチスケール特徴抽出を実現する。
臨床CCMデータセットの実験では、HMSViTは61.34% mIoUと70.40%の診断精度で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-06-24T10:00:23Z) - Lightweight Relational Embedding in Task-Interpolated Few-Shot Networks for Enhanced Gastrointestinal Disease Classification [0.0]
大腸癌の検出は、患者の生存率を高めるために重要である。
大腸内視鏡は、適切な高品質の内視鏡画像を取得することに依存する。
Few-Shot Learning アーキテクチャにより、我々のモデルは、目に見えないきめ細かな内視鏡画像パターンに迅速に適応できる。
精度は90.1%,精度は0.845,リコールは0.942,F1スコアは0.891であった。
論文 参考訳(メタデータ) (2025-05-30T16:54:51Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Self-Supervised Learning for Interventional Image Analytics: Towards Robust Device Trackers [6.262161803642583]
我々は,1600万以上の干渉X線フレームからなる非常に大きなデータコホートから手続き的特徴を学習するための新しい手法を提案する。
本手法は,フレームベース再構成を利用してフレーム間時間対応を微妙に学習するマスク付き画像モデリング技術に基づいている。
実験の結果,提案手法は参照解に対する最大追従誤差を66.31%削減できることがわかった。
論文 参考訳(メタデータ) (2024-05-02T10:18:22Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。