論文の概要: nnMobileNe: Rethinking CNN for Retinopathy Research
- arxiv url: http://arxiv.org/abs/2306.01289v2
- Date: Wed, 8 Nov 2023 20:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:26:37.389614
- Title: nnMobileNe: Rethinking CNN for Retinopathy Research
- Title(参考訳): nnMobileNe:網膜症研究のためのCNNを再考
- Authors: Wenhui Zhu, Peijie Qiu, Xin Li, Natasha Lepore, Oana M. Dumitrascu,
and Yalin Wang
- Abstract要約: 畳み込み神経ネットワーク(CNN)は網膜疾患(RD)の検出と追跡の最前線にある
2020年代における視覚変換器(ViT)の出現は、RDモデル開発の軌跡を移した。
我々は、RD診断におけるCNNモデル、特にMobileNetの実用性を高めるために、アーキテクチャを再検討し、更新した。
- 参考スコア(独自算出の注目度): 5.0086124858415335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past few decades, convolutional neural networks (CNNs) have been at
the forefront of the detection and tracking of various retinal diseases (RD).
Despite their success, the emergence of vision transformers (ViT) in the 2020s
has shifted the trajectory of RD model development. The leading-edge
performance of ViT-based models in RD can be largely credited to their
scalability - their ability to improve as more parameters are added. As a
result, ViT-based models tend to outshine traditional CNNs in RD applications,
albeit at the cost of increased data and computational demands. ViTs also
differ from CNNs in their approach to processing images, working with patches
rather than local regions, which can complicate the precise identification of
small, variably presented lesions in RD. In our study, we revisited and updated
the architecture of a CNN model, specifically MobileNet, to enhance its utility
in RD diagnostics. We found that an optimized MobileNet, through selective
modifications, can surpass ViT-based models in various RD benchmarks, including
diabetic retinopathy grading, detection of multiple fundus diseases, and
classification of diabetic macular edema. Our software package is available at
https://github.com/Retinal-Research/NN-MOBILENET
- Abstract(参考訳): 過去数十年にわたり、畳み込みニューラルネットワーク(cnns)は様々な網膜疾患(rd)の検出と追跡の最前線にある。
その成功にもかかわらず、2020年代のビジョントランスフォーマー(ViT)の出現はRDモデル開発の軌跡を変えている。
rd における vit ベースのモデルの最先端のパフォーマンスは、そのスケーラビリティ - より多くのパラメータが追加されるにつれて改善できる能力 - が大きな功績を挙げることができる。
結果として、vitベースのモデルは、データの増加と計算要求のコストにもかかわらず、rdアプリケーションにおける従来のcnnを上回る傾向があります。
ViTはまた、画像処理のアプローチにおいてCNNと異なり、局所的な領域ではなくパッチで作業することで、RD内の小さな可変性病変の正確な識別を複雑にすることができる。
本研究では,CNNモデル,特にMobileNetのアーキテクチャを再検討し,RD診断における実用性の向上を図る。
選択的な修正によって最適化されたモバイルネットは、糖尿病網膜症格付け、複数の眼底疾患の検出、糖尿病黄斑浮腫の分類など、様々なrdベンチマークでvitベースのモデルを上回ることが判明した。
私たちのソフトウェアパッケージはhttps://github.com/Retinal-Research/NN-MOBILENETで利用可能です。
関連論文リスト
- Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Improving Classification of Retinal Fundus Image Using Flow Dynamics
Optimized Deep Learning Methods [0.0]
糖尿病網膜症(英: Diabetic Retinopathy, DR)は、糖尿病において網膜に存在する血管網を損傷する障害である。
経験豊富な臨床医は、疾患の特定に使用される画像中の腫瘍を識別する必要があるため、カラー・ファンドス画像を用いてDR診断を行うのにしばらく時間がかかる可能性がある。
論文 参考訳(メタデータ) (2023-04-29T16:11:34Z) - Efficiently Training Vision Transformers on Structural MRI Scans for
Alzheimer's Disease Detection [2.359557447960552]
ビジョントランスフォーマー(ViT)は近年、コンピュータビジョンアプリケーションのためのCNNの代替として登場した。
難易度に基づいて,脳神経画像の下流タスクに対するViTアーキテクチャの変種を検証した。
合成および実MRIスキャンで事前訓練した微調整型視覚変換器モデルを用いて、5%と9-10%の性能向上を実現した。
論文 参考訳(メタデータ) (2023-03-14T20:18:12Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - ROOD-MRI: Benchmarking the robustness of deep learning segmentation
models to out-of-distribution and corrupted data in MRI [0.4839993770067469]
ROOD-MRIは、ディープ人工知能ニューラルネットワークの堅牢性をMRIデータ、破損、アーティファクトにベンチマークするプラットフォームである。
いくつかの大規模研究において,海馬,心室,白質の超強度セグメンテーションに本手法を適用した。
データ拡張戦略は解剖学的セグメンテーションタスクのOODデータに対するロバスト性を大幅に向上させることができるが、最近のDNNでは、より困難な病変ベースのセグメンテーションタスクではロバスト性に欠ける。
論文 参考訳(メタデータ) (2022-03-11T16:34:15Z) - Diabetic Retinopathy Screening Using Custom-Designed Convolutional
Neural Network [1.3069410690405037]
糖尿病網膜症(DR)の流行は世界中で34.6%に達し、中年糖尿病患者の視覚障害の主要な原因となっている。
眼底写真を用いた通常のDRスクリーニングは、合併症を検知し、高度なレベルへの進行を防ぐのに役立つ。
既存のCNNベースの手法では、トレーニング済みのCNNモデルか、新しいCNNモデルを設計するためのブルートフォースアプローチのいずれかを使用している。
論文 参考訳(メタデータ) (2021-10-08T03:30:45Z) - Scopeformer: n-CNN-ViT Hybrid Model for Intracranial Hemorrhage
Classification [0.0]
本稿では、視覚変換器(ViT)モデルを改善するために、畳み込みニューラルネットワーク(CNN)のアンサンブルからなる特徴生成器を提案する。
複数のXception CNNを用いて抽出した特徴マップを徐々に積み重ねることで、VTモデルのための特徴量豊富な入力を開発することができることを示す。
論文 参考訳(メタデータ) (2021-07-07T20:20:24Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。