論文の概要: OccluNet: Spatio-Temporal Deep Learning for Occlusion Detection on DSA
- arxiv url: http://arxiv.org/abs/2508.14286v1
- Date: Tue, 19 Aug 2025 21:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.280586
- Title: OccluNet: Spatio-Temporal Deep Learning for Occlusion Detection on DSA
- Title(参考訳): OccluNet: DSAにおけるオクルージョン検出のための時空間深層学習
- Authors: Anushka A. Kore, Frank G. te Nijenhuis, Matthijs van der Sluijs, Wim van Zwam, Charles Majoie, Geert Lycklama à Nijeholt, Danny Ruijters, Frans Vos, Sandra Cornelissen, Ruisheng Su, Theo van Walsum,
- Abstract要約: デジタル・サブトラクション・アンギオグラフィーの解釈は、複雑さと解剖学的時間的制約による課題を引き起こす。
この研究は、一段階の物体検出器であるYOLOXを統合した時相ディープラーニングモデルであるOccluNetを提案する。
MR CLEAN RegistryによるDSA画像の評価では、時間的に一貫した特徴をキャプチャするモデルの能力が明らかにされた。
- 参考スコア(独自算出の注目度): 1.3635341861371646
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate detection of vascular occlusions during endovascular thrombectomy (EVT) is critical in acute ischemic stroke (AIS). Interpretation of digital subtraction angiography (DSA) sequences poses challenges due to anatomical complexity and time constraints. This work proposes OccluNet, a spatio-temporal deep learning model that integrates YOLOX, a single-stage object detector, with transformer-based temporal attention mechanisms to automate occlusion detection in DSA sequences. We compared OccluNet with a YOLOv11 baseline trained on either individual DSA frames or minimum intensity projections. Two spatio-temporal variants were explored for OccluNet: pure temporal attention and divided space-time attention. Evaluation on DSA images from the MR CLEAN Registry revealed the model's capability to capture temporally consistent features, achieving precision and recall of 89.02% and 74.87%, respectively. OccluNet significantly outperformed the baseline models, and both attention variants attained similar performance. Source code is available at https://github.com/anushka-kore/OccluNet.git
- Abstract(参考訳): 急性虚血性脳梗塞(AIS)では,血管血栓摘出術(EVT)中の血管閉塞の正確な検出が重要である。
デジタルサブトラクション血管造影(DSA)配列の解釈は、解剖学的複雑さと時間的制約による課題を引き起こす。
本研究は,単段物体検出器YOLOXと変圧器を用いた時間的注意機構を統合した時空間深層学習モデルOccluNetを提案する。
我々は、OccluNetを個々のDSAフレームまたは最小強度プロジェクションでトレーニングされたYOLOv11ベースラインと比較した。
OccluNetのために2つの時空間変種が探索された。
MR CLEANレジストリによるDSA画像の評価では、時間的に一貫した特徴を捉え、それぞれ89.02%と74.87%の精度とリコールを達成した。
OccluNetはベースラインモデルを大きく上回り、両方のアテンションモデルも同様のパフォーマンスを得た。
ソースコードはhttps://github.com/anushka-kore/OccluNet.gitで入手できる。
関連論文リスト
- SAD-TIME: a Spatiotemporal-fused network for depression detection with Automated multi-scale Depth-wise and TIME-interval-related common feature extractor [8.335556993302937]
うつ病は重度の精神疾患であり、正確な診断はうつ病患者の治療とリハビリに欠かせない。
より客観的な診断方法を探すために、研究者は、うつ病を識別するディープラーニングベースの方法の実験を開始した。
論文 参考訳(メタデータ) (2024-11-13T11:08:28Z) - Longitudinal Segmentation of MS Lesions via Temporal Difference Weighting [2.0168790328644697]
本稿では,ベースラインとフォローアップスキャンの時間的差を,差分重みブロックと呼ばれるユニークなアーキテクチャ的帰納バイアスによって明示的に取り込む新しい手法を提案する。
本研究は,2つのデータセットにまたがる最先端の縦・単点モデルと比較して,病変のセグメンテーションおよび病変検出において優れたスコアを得る。
論文 参考訳(メタデータ) (2024-09-20T11:30:54Z) - SEDMamba: Enhancing Selective State Space Modelling with Bottleneck Mechanism and Fine-to-Coarse Temporal Fusion for Efficient Error Detection in Robot-Assisted Surgery [7.863539113283565]
選択的状態空間モデル(SSM)を外科的誤り検出に組み込んだSEDMambaという新しい階層モデルを提案する。
SEDMambaは、長期ビデオにおける外科的エラーの検出と時間的局所化のために、ボトルネック機構と微細から粗い時間的融合(FCTF)を備えた選択的SSMを強化する。
我々の研究は、実際の手術症例におけるエラー検出を支援するために、第一種、フレームレベル、生存中の外科的エラーデータセットにも貢献する。
論文 参考訳(メタデータ) (2024-06-22T19:20:35Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Two-Stage Mesh Deep Learning for Automated Tooth Segmentation and
Landmark Localization on 3D Intraoral Scans [56.55092443401416]
TS-MDLの最初の段階では、mphiMeshSegNetは0.953pm0.076$で平均Dice類似係数(DSC)に達した。
PointNet-Reg は平均絶対誤差 (MAE) が 0.623pm0.718, mm$ であり、ランドマーク検出の他のネットワークよりも優れている。
論文 参考訳(メタデータ) (2021-09-24T13:00:26Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。