論文の概要: Ophthalmic Biomarker Detection Using Ensembled Vision Transformers --
Winning Solution to IEEE SPS VIP Cup 2023
- arxiv url: http://arxiv.org/abs/2310.14005v1
- Date: Sat, 21 Oct 2023 13:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:09:13.527776
- Title: Ophthalmic Biomarker Detection Using Ensembled Vision Transformers --
Winning Solution to IEEE SPS VIP Cup 2023
- Title(参考訳): アンサンブルビジョン変換器を用いた眼科バイオマーカー検出 -IEEE SPS VIPカップ2023の勝利解-
- Authors: H.A.Z. Sameen Shahgir, Khondker Salman Sayeed, Tanjeem Azwad Zaman,
Md. Asif Haider, Sheikh Saifur Rahman Jony, M. Sohel Rahman
- Abstract要約: 2つの視覚変換器ベースのモデルをトレーニングし、推論時にそれらをアンサンブルする。
MaxViTの畳み込みレイヤの使用に続いて、ローカル機能の検出にもっと適するように注意を払っています。
VIPカップ2023の第2、第2、第2フェーズでは0.814点、第2フェーズでは0.8527点、第2フェーズでは3.8%のスコアを得た。
- 参考スコア(独自算出の注目度): 3.336462506710413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report outlines our approach in the IEEE SPS VIP Cup 2023: Ophthalmic
Biomarker Detection competition. Our primary objective in this competition was
to identify biomarkers from Optical Coherence Tomography (OCT) images obtained
from a diverse range of patients. Using robust augmentations and 5-fold
cross-validation, we trained two vision transformer-based models: MaxViT and
EVA-02, and ensembled them at inference time. We find MaxViT's use of
convolution layers followed by strided attention to be better suited for the
detection of local features while EVA-02's use of normal attention mechanism
and knowledge distillation is better for detecting global features. Ours was
the best-performing solution in the competition, achieving a patient-wise F1
score of 0.814 in the first phase and 0.8527 in the second and final phase of
VIP Cup 2023, scoring 3.8% higher than the next-best solution.
- Abstract(参考訳): 本稿では,IEEE SPS VIP Cup 2023: Ophthalmic Biomarker Detection competitionについて概説する。
このコンペの主な目的は,多種多様な患者から得られた光コヒーレンス断層撮影(oct)画像からバイオマーカーを同定することであった。
頑健な拡張と5倍のクロスバリデーションを用いて、MaxViTとEVA-02の2つのビジョントランスフォーマーモデルを訓練し、それらを推論時にアンサンブルした。
EVA-02の正常な注意機構と知識蒸留はグローバルな特徴の検出に有効であるのに対し,MaxViTの畳み込み層の利用は局所的な特徴の検出に適していると考えられる。
第1フェーズでは患者側のf1スコア0.814、vipカップ2023の第2フェーズと最終フェーズでは0.9527となり、次のベストソリューションよりも3.8%高かった。
関連論文リスト
- ViT-2SPN: Vision Transformer-based Dual-Stream Self-Supervised Pretraining Networks for Retinal OCT Classification [0.10241134756773226]
Vision Transformer-based Dual-Stream Self-Supervised Pretraining Network (ViT-2SPN) は、特徴抽出を強化し、診断精度を向上させるために設計された新しいフレームワークである。
ViT-2SPNは3段階のワークフロー、Supervised Pretraining、Self-Supervised Pretraining、Supervised Fine-Tuningを採用している。
ViT-2SPN は平均 AUC 0.93 、精度 0.77 、精度 0.81 、リコール 0.75 、F1 スコア 0.76 を達成し、既存の SSP 法より優れている。
論文 参考訳(メタデータ) (2025-01-28T19:41:38Z) - Multi-Class Abnormality Classification Task in Video Capsule Endoscopy [3.656114607436271]
本研究は,ビデオカプセル内視鏡(VCE)における多クラス異常分類の課題に対処するものである。
本研究の目的は,さまざまな消化管疾患を正しく分類することであり,臨床現場での診断効率の向上に重要である。
チームカプセルコマンドは,平均AUCが0.7314,精度が0.3235で7位にランクインした。
論文 参考訳(メタデータ) (2024-10-25T21:22:52Z) - Ophthalmic Biomarker Detection with Parallel Prediction of Transformer and Convolutional Architecture [1.6893691730575022]
本稿では,CNNとVision Transformerのアンサンブルを用いた眼科バイオマーカー検出手法を提案する。
本手法はOCT画像から6つのバイオマーカーを検出するためにOLIVESデータセット上に実装され,データセット上でのマクロ平均F1スコアの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-09-26T12:33:34Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - COVID-19 detection using ViT transformer-based approach from Computed
Tomography Images [0.0]
我々は,CT画像を用いた新型コロナウイルス診断の精度と効率を高めるための新しいアプローチを提案する。
224x224サイズの入力画像に対して設定されたベースViT変換器を用いて、バイナリ分類タスクに適合するように出力を変更する。
本手法では,患者のCTスライスをCOVID-19または非COVID-19に分類し,系統的な患者レベルの予測戦略を実装した。
論文 参考訳(メタデータ) (2023-10-12T09:37:56Z) - nnUNet RASPP for Retinal OCT Fluid Detection, Segmentation and
Generalisation over Variations of Data Sources [25.095695898777656]
我々は、複数のデバイスベンダーの画像間で一貫した高パフォーマンスを持つnnUNetの2つの変種を提案する。
このアルゴリズムはMICCAI 2017 RETOUCHチャレンジデータセットで検証された。
実験の結果,我々のアルゴリズムは最先端のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-02-25T23:47:23Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。