論文の概要: RARE disease detection from Capsule Endoscopic Videos based on Vision Transformers
- arxiv url: http://arxiv.org/abs/2603.18045v1
- Date: Mon, 16 Mar 2026 14:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.719249
- Title: RARE disease detection from Capsule Endoscopic Videos based on Vision Transformers
- Title(参考訳): 視覚変換器を用いたカプセル内視鏡映像からのRARE病検出
- Authors: X. Gao, C. Chien, G. Liu, A. Manullang,
- Abstract要約: トランスフォーマーに基づくディープラーニングネットワークは、このタスクのために微調整される。
合計17のラベルは口、食道、胃、小腸、大腸、zライン、ピロロス、回盲部弁、活発な出血、血管拡張症、血液、浸食、エリテマ、ヘマチン、リンパ管拡張症、ポリープ、潰瘍である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work is corresponding to the Gastro Competition for multi-label classification from capsule endoscopic videos (CEV). Deep learning network based on Transformers are fined-tune for this task. The based online mode is Google Vision Transformer (ViT) batch16 with 224 x 224 resolutions. In total, 17 labels are classified, which are mouth, esophagus, stomach, small intestine, colon, z-line, pylorus, ileocecal valve, active bleeding, angiectasia, blood, erosion, erythema, hematin, lymphangioectasis, polyp, and ulcer. For test dataset of three videos, the overall mAP @0.5 is 0.0205 whereas the overall mAP @0.95 is 0.0196.
- Abstract(参考訳): この研究はカプセル内視鏡ビデオ(CEV)から多ラベル分類のためのガストロコンペティションに対応している。
トランスフォーマーに基づくディープラーニングネットワークは、このタスクのために微調整される。
オンラインモードはGoogle Vision Transformer (ViT) batch16で、解像度は224 x 224である。
合計17のラベルは口、食道、胃、小腸、大腸、zライン、ピロロス、回盲部弁、活発な出血、血管拡張症、血液、浸食、エリテマ、ヘマチン、リンパ管拡張症、ポリープ、潰瘍である。
3つのビデオのテストデータセットでは、mAP @0.5が0.0205、mAP @0.95が0.0196である。
関連論文リスト
- FFA Sora, video generation as fundus fluorescein angiography simulator [23.08083653969291]
Fundus fluorescein angiography(FFA)は網膜血管疾患の診断に重要である。
本研究では,FFAレポートを動的ビデオに変換するテキスト・ビデオ・モデルであるFFA Soraを開発した。
論文 参考訳(メタデータ) (2024-12-23T07:18:13Z) - Multi-Class Abnormality Classification Task in Video Capsule Endoscopy [3.656114607436271]
本研究は,ビデオカプセル内視鏡(VCE)における多クラス異常分類の課題に対処するものである。
本研究の目的は,さまざまな消化管疾患を正しく分類することであり,臨床現場での診断効率の向上に重要である。
チームカプセルコマンドは,平均AUCが0.7314,精度が0.3235で7位にランクインした。
論文 参考訳(メタデータ) (2024-10-25T21:22:52Z) - Study of Vision Transformers for Covid-19 Detection from Chest X-rays [0.0]
新型コロナウイルス(COVID-19)のパンデミックは世界的な健康危機を招き、迅速かつ正確なウイルス検出の必要性を強調している。
本研究では、新型コロナウイルス検出のための視覚変換器を用いたトランスファーラーニングについて検討する。
我々は、ビジョントランスフォーマーの能力を利用して、グローバルなコンテキストを捉え、胸部X線画像から複雑なパターンを学習する。
論文 参考訳(メタデータ) (2023-07-17T14:06:07Z) - Gastrointestinal Disorder Detection with a Transformer Based Approach [0.0]
本稿では,内視鏡画像から得られた特徴の分類に基づいて,診断支援と消化管疾患の同定を行う手法について述べる。
内視鏡的大腸内視鏡検査(WCE)から胃腸疾患を95.63%の精度で検出するための視覚トランスフォーマーを用いたアプローチを提案する。
我々は、このトランスフォーマーベースのアプローチを、事前訓練された畳み込みニューラルネットワーク(CNN)モデルDenseNet201と比較し、様々な定量的性能評価指標において、ビジョントランスフォーマーがDenseNet201を上回ったことを示した。
論文 参考訳(メタデータ) (2022-10-06T19:08:37Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - FetReg2021: A Challenge on Placental Vessel Segmentation and
Registration in Fetoscopy [52.3219875147181]
2-Twin Transfusion Syndrome (TTTS) に対するレーザー光凝固法が広く採用されている。
このプロシージャは、視野が限られたこと、フェトスコープの操作性が悪いこと、視認性が悪いこと、照明の変動性のために特に困難である。
コンピュータ支援介入(CAI)は、シーン内の重要な構造を特定し、ビデオモザイクを通して胎児の視野を広げることで、外科医に意思決定支援と文脈認識を提供する。
7つのチームがこの課題に参加し、そのモデルパフォーマンスを、6フェットから658ピクセルの注釈付き画像の見当たらないテストデータセットで評価した。
論文 参考訳(メタデータ) (2022-06-24T23:44:42Z) - Vision Transformer with Progressive Sampling [73.60630716500154]
本稿では,識別領域を特定するための反復的・漸進的なサンプリング手法を提案する。
ImageNetでスクラッチからトレーニングされた場合、PS-ViTはトップ1の精度でバニラViTよりも3.8%高いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-08-03T18:04:31Z) - COVID-VIT: Classification of COVID-19 from CT chest images based on
vision transformer models [0.8594140167290099]
この論文は、CT肺画像に基づいて、非COVIDからCOVIDを分類するMIA-COV19の課題に対応している。
主な目的は、胸部X線写真から新型コロナウイルスの診断を予測することである。
注目モデルに基づく視覚変換器(ViT)と従来の畳み込みニューラルネットワーク(CNN)に基づくDenseNetの2つのディープラーニング手法について検討した。
論文 参考訳(メタデータ) (2021-07-04T16:55:51Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - FLANNEL: Focal Loss Based Neural Network Ensemble for COVID-19 Detection [61.04937460198252]
正常, 細菌性肺炎, 非ウイルス性肺炎, COVID-19の4型を有する2874例のX線画像データを構築した。
FLANNEL(Focal Loss Based Neural Ensemble Network)を提案する。
FLANNELは、すべての指標において、新型コロナウイルス識別タスクのベースラインモデルを一貫して上回っている。
論文 参考訳(メタデータ) (2020-10-30T03:17:31Z) - JCS: An Explainable COVID-19 Diagnosis System by Joint Classification
and Segmentation [95.57532063232198]
新型コロナウイルス感染症2019(COVID-19)は、200カ国以上でパンデミックの流行を引き起こしている。
感染を制御するためには、感染した人々を識別し、分離することが最も重要なステップである。
本稿では,新型コロナウイルスの胸部CT診断をリアルタイムかつ説明可能な,新しい関節分類システム(JCS)を開発した。
論文 参考訳(メタデータ) (2020-04-15T12:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。