論文の概要: Ophthalmic Biomarker Detection Using Ensembled Vision Transformers --
Winning Solution to IEEE SPS VIP Cup 2023
- arxiv url: http://arxiv.org/abs/2310.14005v1
- Date: Sat, 21 Oct 2023 13:27:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:09:13.527776
- Title: Ophthalmic Biomarker Detection Using Ensembled Vision Transformers --
Winning Solution to IEEE SPS VIP Cup 2023
- Title(参考訳): アンサンブルビジョン変換器を用いた眼科バイオマーカー検出 -IEEE SPS VIPカップ2023の勝利解-
- Authors: H.A.Z. Sameen Shahgir, Khondker Salman Sayeed, Tanjeem Azwad Zaman,
Md. Asif Haider, Sheikh Saifur Rahman Jony, M. Sohel Rahman
- Abstract要約: 2つの視覚変換器ベースのモデルをトレーニングし、推論時にそれらをアンサンブルする。
MaxViTの畳み込みレイヤの使用に続いて、ローカル機能の検出にもっと適するように注意を払っています。
VIPカップ2023の第2、第2、第2フェーズでは0.814点、第2フェーズでは0.8527点、第2フェーズでは3.8%のスコアを得た。
- 参考スコア(独自算出の注目度): 3.336462506710413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report outlines our approach in the IEEE SPS VIP Cup 2023: Ophthalmic
Biomarker Detection competition. Our primary objective in this competition was
to identify biomarkers from Optical Coherence Tomography (OCT) images obtained
from a diverse range of patients. Using robust augmentations and 5-fold
cross-validation, we trained two vision transformer-based models: MaxViT and
EVA-02, and ensembled them at inference time. We find MaxViT's use of
convolution layers followed by strided attention to be better suited for the
detection of local features while EVA-02's use of normal attention mechanism
and knowledge distillation is better for detecting global features. Ours was
the best-performing solution in the competition, achieving a patient-wise F1
score of 0.814 in the first phase and 0.8527 in the second and final phase of
VIP Cup 2023, scoring 3.8% higher than the next-best solution.
- Abstract(参考訳): 本稿では,IEEE SPS VIP Cup 2023: Ophthalmic Biomarker Detection competitionについて概説する。
このコンペの主な目的は,多種多様な患者から得られた光コヒーレンス断層撮影(oct)画像からバイオマーカーを同定することであった。
頑健な拡張と5倍のクロスバリデーションを用いて、MaxViTとEVA-02の2つのビジョントランスフォーマーモデルを訓練し、それらを推論時にアンサンブルした。
EVA-02の正常な注意機構と知識蒸留はグローバルな特徴の検出に有効であるのに対し,MaxViTの畳み込み層の利用は局所的な特徴の検出に適していると考えられる。
第1フェーズでは患者側のf1スコア0.814、vipカップ2023の第2フェーズと最終フェーズでは0.9527となり、次のベストソリューションよりも3.8%高かった。
関連論文リスト
- High-confidence pseudo-labels for domain adaptation in COVID-19 detection [8.28720658988688]
本報告では,第4回COV19Dコンペティションへの応募について概説する。
競技は2つの課題からなる。
1つ目は、COV19-CT-DBデータベースから1000以上のCTスキャンから新型コロナウイルスの存在を検出するために分類器を訓練することである。
論文 参考訳(メタデータ) (2024-03-20T11:12:57Z) - A Federated Learning Framework for Stenosis Detection [70.27581181445329]
本研究は,冠動脈造影画像(CA)の狭窄検出におけるFL(Federated Learning)の使用について検討した。
アンコナのOspedale Riuniti(イタリア)で取得した200人の患者1219枚の画像を含む2施設の異種データセットについて検討した。
データセット2には、文献で利用可能な90人の患者からの7492のシーケンシャルな画像が含まれている。
論文 参考訳(メタデータ) (2023-10-30T11:13:40Z) - COVID-19 detection using ViT transformer-based approach from Computed
Tomography Images [0.0]
我々は,CT画像を用いた新型コロナウイルス診断の精度と効率を高めるための新しいアプローチを提案する。
224x224サイズの入力画像に対して設定されたベースViT変換器を用いて、バイナリ分類タスクに適合するように出力を変更する。
本手法では,患者のCTスライスをCOVID-19または非COVID-19に分類し,系統的な患者レベルの予測戦略を実装した。
論文 参考訳(メタデータ) (2023-10-12T09:37:56Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - FDVTS's Solution for 2nd COV19D Competition on COVID-19 Detection and
Severity Analysis [10.334617290353194]
胸部CT画像のCOVID-19診断に有効な3次元コントラシティブ・ミックスアップ分類ネットワークを用いた。
新型コロナウイルス検出の課題では、484のCTスキャンで0.9245のマクロF1スコアに達し、ベースライン法を16.5%上回る結果となった。
重症度検出の課題では,61検体に対して0.7186マクロF1スコアを達成し,ベースラインを8.86%上回る結果となった。
論文 参考訳(メタデータ) (2022-07-05T01:35:29Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Stain-Robust Mitotic Figure Detection for the Mitosis Domain
Generalization Challenge [2.072197863131669]
Mitosis DOmain Generalization (MIDOG)の課題は、複数のスキャナーから見えないデータに対して、検出モデルの堅牢性をテストすることである。
この課題に対処するために,TAAセンターチームが採用したアプローチについて,簡単な概要を述べる。
論文 参考訳(メタデータ) (2021-09-02T11:44:42Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Focal Self-attention for Local-Global Interactions in Vision
Transformers [90.9169644436091]
局所的局所的相互作用と粗大な大域的相互作用の両方を包含する新しいメカニズムである焦点自己アテンションを提示する。
焦点自己アテンションを用いて、最先端の視覚変換器よりも優れた性能を実現する、Focal Transformerと呼ばれる新しい視覚変換器モデルを提案する。
論文 参考訳(メタデータ) (2021-07-01T17:56:09Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。