論文の概要: Video Capsule Endoscopy Classification using Focal Modulation Guided
Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2206.08298v1
- Date: Thu, 16 Jun 2022 16:57:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 19:17:31.432407
- Title: Video Capsule Endoscopy Classification using Focal Modulation Guided
Convolutional Neural Network
- Title(参考訳): 焦点変調誘導畳み込みニューラルネットワークを用いたビデオカプセル内視鏡の分類
- Authors: Abhishek Srivastava, Nikhil Kumar Tomar, Ulas Bagci, Debesh Jha
- Abstract要約: 本稿では,小腸の解剖学的特徴と光学的所見の分類に軽量な畳み込み層を統合した焦点変調ネットワークであるFocalConvNetを提案する。
リアルタイム臨床環境におけるFocalConvNetの可能性を確立するため,最高スループットの128.02イメージ/秒を報告した。
- 参考スコア(独自算出の注目度): 3.1374864575817214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video capsule endoscopy is a hot topic in computer vision and medicine. Deep
learning can have a positive impact on the future of video capsule endoscopy
technology. It can improve the anomaly detection rate, reduce physicians' time
for screening, and aid in real-world clinical analysis. CADx classification
system for video capsule endoscopy has shown a great promise for further
improvement. For example, detection of cancerous polyp and bleeding can lead to
swift medical response and improve the survival rate of the patients. To this
end, an automated CADx system must have high throughput and decent accuracy. In
this paper, we propose FocalConvNet, a focal modulation network integrated with
lightweight convolutional layers for the classification of small bowel
anatomical landmarks and luminal findings. FocalConvNet leverages focal
modulation to attain global context and allows global-local spatial
interactions throughout the forward pass. Moreover, the convolutional block
with its intrinsic inductive/learning bias and capacity to extract hierarchical
features allows our FocalConvNet to achieve favourable results with high
throughput. We compare our FocalConvNet with other SOTA on Kvasir-Capsule, a
large-scale VCE dataset with 44,228 frames with 13 classes of different
anomalies. Our proposed method achieves the weighted F1-score, recall and MCC}
of 0.6734, 0.6373 and 0.2974, respectively outperforming other SOTA
methodologies. Furthermore, we report the highest throughput of 148.02
images/second rate to establish the potential of FocalConvNet in a real-time
clinical environment. The code of the proposed FocalConvNet is available at
https://github.com/NoviceMAn-prog/FocalConvNet.
- Abstract(参考訳): ビデオカプセル内視鏡はコンピュータビジョンと医療においてホットな話題である。
深層学習は、ビデオカプセル内視鏡技術の将来に肯定的な影響を与える可能性がある。
異常検出率を向上し、医師のスクリーニング時間を減らし、現実世界の臨床分析を支援することができる。
ビデオカプセル内視鏡のためのCADx分類システムでは,さらなる改善が期待できる。
例えば、癌性ポリープの検出と出血は、迅速な医療反応と患者の生存率の向上につながる可能性がある。
この目的のために、自動CADxシステムは高いスループットと適切な精度を持つ必要がある。
本稿では,小腸解剖学的ランドマークの分類と発光観察のために,軽量畳み込み層を統合した焦点変調ネットワークfocalconvnetを提案する。
focalconvnetはフォカル変調を利用してグローバルコンテキストを実現し、フォワードパスを通じてグローバルローカルな空間的相互作用を可能にする。
さらに,本質的な帰納的/学習バイアスと階層的特徴を抽出する能力を備えた畳み込みブロックにより,focalconvnetは高いスループットで望ましい結果を得ることができる。
我々のfocalconvnetとkvasir-capsule上の他のsotaを比較した。これは44,228フレームの大規模vceデータセットで、13種類の異なるアノマリーを持つ。
提案手法は0.6734, 0.6373, 0.2974の重み付きf1-score, recall および mcc} をそれぞれ他の sota 方法論よりも優れる。
さらに, リアルタイム臨床環境におけるfocalconvnetの可能性を確立するため, 148.02画像/秒のスループットが最も高いことを報告する。
FocalConvNetのコードはhttps://github.com/NoviceMAn-prog/FocalConvNetで公開されている。
関連論文リスト
- Multi-Class Abnormality Classification in Video Capsule Endoscopy Using Deep Learning [0.0]
このレポートでは、Capsule Vision 2024 Challengeに対するTeam Seq2Cureのディープラーニングアプローチの概要を概説する。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースのアーキテクチャのアンサンブルを多クラス異常分類に活用する。
提案手法は, 平均精度86.34パーセント, AUC-ROCスコア0.9908を検証セットで達成した。
論文 参考訳(メタデータ) (2024-10-24T16:13:06Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Classification of Endoscopy and Video Capsule Images using CNN-Transformer Model [1.0994755279455526]
本研究では、トランスフォーマーと畳み込みニューラルネットワーク(CNN)の利点を組み合わせて分類性能を向上させるハイブリッドモデルを提案する。
GastroVisionデータセットでは,精度,リコール,F1スコア,精度,マシューズ相関係数(MCC)が0.8320,0.8386,0.8324,0.8386,0.8191であった。
論文 参考訳(メタデータ) (2024-08-20T11:05:32Z) - Automatic diagnosis of knee osteoarthritis severity using Swin
transformer [55.01037422579516]
変形性膝関節症 (KOA) は膝関節の慢性的な痛みと硬直を引き起こす疾患である。
我々は,Swin Transformer を用いて KOA の重大度を予測する自動手法を提案する。
論文 参考訳(メタデータ) (2023-07-10T09:49:30Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - COVID-Net US: A Tailored, Highly Efficient, Self-Attention Deep
Convolutional Neural Network Design for Detection of COVID-19 Patient Cases
from Point-of-care Ultrasound Imaging [101.27276001592101]
我々は,肺POCUS画像からの新型コロナウイルススクリーニングに適した,高効率で自己注意型の深層畳み込みニューラルネットワーク設計であるCOVID-Net USを紹介した。
実験の結果、提案されたCOVID-Net USは、アーキテクチャの複雑さが353倍、計算の複雑さが62倍、Raspberry Piで14.3倍高速なAUCを達成できることがわかった。
リソース制約のある環境において安価な医療と人工知能を提唱するために、COVID-Net USをオープンソースにし、COVID-Netオープンソースイニシアチブの一部として公開しました。
論文 参考訳(メタデータ) (2021-08-05T16:47:33Z) - Acute Lymphoblastic Leukemia Detection from Microscopic Images Using
Weighted Ensemble of Convolutional Neural Networks [4.095759108304108]
本稿では,深層畳み込みニューラルネットワーク(cnns)を用いた顕微鏡細胞画像からの全検出タスクを自動化した。
ネットワークのより優れた一般化を達成するために、様々なデータ拡張と前処理が組み込まれている。
提案する重み付きアンサンブルモデルでは, アンサンブル候補のカッパ値を重みとして, 重み付きF1スコア88.6 %, バランス付き精度86.2 %, 予備試験セットのAUC0.941を出力した。
論文 参考訳(メタデータ) (2021-05-09T18:58:48Z) - Intrapapillary Capillary Loop Classification in Magnification Endoscopy:
Open Dataset and Baseline Methodology [8.334256673330879]
我々は静止画やビデオフレームを正常または異常と分類できるコンピュータ支援検出システムを構築した。
114の患者ビデオから抽出された68Kバイナリラベルフレームを含む新しいベンチマークデータセットを紹介します。
提案手法は, 臨床医12名による94.7 %に対して, 平均91.7 %の精度を示した。
論文 参考訳(メタデータ) (2021-02-19T14:55:21Z) - DDANet: Dual Decoder Attention Network for Automatic Polyp Segmentation [0.3734402152170273]
本稿では,デュアルデコーダアテンションネットワークに基づくDDANet'という新しいアーキテクチャを提案する。
実験では、Kvasir-SEGデータセットで訓練され、見えないデータセットでテストされたモデルは、0.7874のダイス係数、0.7010のmIoU、0.7987のリコール、0.8577の精度を達成した。
論文 参考訳(メタデータ) (2020-12-30T17:52:35Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。