論文の概要: nnMobileNe: Rethinking CNN for Retinopathy Research
- arxiv url: http://arxiv.org/abs/2306.01289v3
- Date: Wed, 10 Apr 2024 04:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 19:45:16.801426
- Title: nnMobileNe: Rethinking CNN for Retinopathy Research
- Title(参考訳): nnMobileNe:網膜症研究のためのCNNを再考
- Authors: Wenhui Zhu, Peijie Qiu, Xiwen Chen, Xin Li, Natasha Lepore, Oana M. Dumitrascu, Yalin Wang,
- Abstract要約: 畳み込み神経ネットワーク(CNN)は、様々な網膜疾患(RD)の検出と追跡の最前線にある
2020年代における視覚変換器(ViT)の出現は、RDモデル開発の軌跡を移した。
我々は、RD診断におけるCNNモデル、特にMobileNetの実用性を高めるために、アーキテクチャを再検討し、更新した。
- 参考スコア(独自算出の注目度): 4.882524311496886
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the past few decades, convolutional neural networks (CNNs) have been at the forefront of the detection and tracking of various retinal diseases (RD). Despite their success, the emergence of vision transformers (ViT) in the 2020s has shifted the trajectory of RD model development. The leading-edge performance of ViT-based models in RD can be largely credited to their scalability-their ability to improve as more parameters are added. As a result, ViT-based models tend to outshine traditional CNNs in RD applications, albeit at the cost of increased data and computational demands. ViTs also differ from CNNs in their approach to processing images, working with patches rather than local regions, which can complicate the precise localization of small, variably presented lesions in RD. In our study, we revisited and updated the architecture of a CNN model, specifically MobileNet, to enhance its utility in RD diagnostics. We found that an optimized MobileNet, through selective modifications, can surpass ViT-based models in various RD benchmarks, including diabetic retinopathy grading, detection of multiple fundus diseases, and classification of diabetic macular edema. The code is available at https://github.com/Retinal-Research/NN-MOBILENET
- Abstract(参考訳): 過去数十年間、畳み込みニューラルネットワーク(CNN)は様々な網膜疾患(RD)の検出と追跡の最前線にあった。
その成功にもかかわらず、2020年代のビジョントランスフォーマー(ViT)の出現はRDモデル開発の軌跡を移した。
RDにおけるViTベースのモデルの最先端のパフォーマンスは、より多くのパラメータを追加して拡張性を改善する能力に大きく貢献する。
結果として、ViTベースのモデルはRDアプリケーションにおいて従来のCNNよりも優れている傾向にある。
ViTはまた、画像処理のアプローチにおいてCNNと異なり、局所的な領域ではなくパッチで作業することで、RD内の小さな可変性病変の正確な局在を複雑にすることができる。
本研究では,CNNモデル,特にMobileNetのアーキテクチャを再検討し,RD診断における実用性の向上を図る。
最適化されたMobileNetは、選択的な修正によって、糖尿病網膜症のグレーディング、複数の基底疾患の検出、糖尿病性黄斑浮腫の分類など、様々なRDベンチマークにおいて、ViTベースのモデルを上回ることが判明した。
コードはhttps://github.com/Retinal-Research/NN-MOBILENETで入手できる。
関連論文リスト
- Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Improving Classification of Retinal Fundus Image Using Flow Dynamics
Optimized Deep Learning Methods [0.0]
糖尿病網膜症(英: Diabetic Retinopathy, DR)は、糖尿病において網膜に存在する血管網を損傷する障害である。
経験豊富な臨床医は、疾患の特定に使用される画像中の腫瘍を識別する必要があるため、カラー・ファンドス画像を用いてDR診断を行うのにしばらく時間がかかる可能性がある。
論文 参考訳(メタデータ) (2023-04-29T16:11:34Z) - Retinal Image Segmentation with Small Datasets [25.095695898777656]
糖尿病黄斑浮腫(DME)、加齢関連黄斑変性(AMD)、緑内障などの多くの眼疾患が網膜に出現し、不可逆的な失明や中心バージョンに深刻な障害を引き起こす。
オプティカルコヒーレンス・トモグラフィ(OCT)は網膜の3Dスキャンであり、網膜解剖の変化を診断し、モニターするために用いられる。
多くのDeep Learning(DL)メソッドは、網膜の病理学的変化を監視する自動化ツールの開発の成功を共有している。
論文 参考訳(メタデータ) (2023-03-09T08:32:14Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - ROOD-MRI: Benchmarking the robustness of deep learning segmentation
models to out-of-distribution and corrupted data in MRI [0.4839993770067469]
ROOD-MRIは、ディープ人工知能ニューラルネットワークの堅牢性をMRIデータ、破損、アーティファクトにベンチマークするプラットフォームである。
いくつかの大規模研究において,海馬,心室,白質の超強度セグメンテーションに本手法を適用した。
データ拡張戦略は解剖学的セグメンテーションタスクのOODデータに対するロバスト性を大幅に向上させることができるが、最近のDNNでは、より困難な病変ベースのセグメンテーションタスクではロバスト性に欠ける。
論文 参考訳(メタデータ) (2022-03-11T16:34:15Z) - Supervised Training of Siamese Spiking Neural Networks with Earth's
Mover Distance [4.047840018793636]
本研究は,高可逆性シアムニューラルネットモデルをイベントデータ領域に適応させる。
我々はスパイク・トレインとスパイク・ニューラル・ネットワーク(SNN)の間の地球のモーバー距離を最適化するための教師付きトレーニング・フレームワークを導入する。
論文 参考訳(メタデータ) (2022-02-20T00:27:57Z) - Scopeformer: n-CNN-ViT Hybrid Model for Intracranial Hemorrhage
Classification [0.0]
本稿では、視覚変換器(ViT)モデルを改善するために、畳み込みニューラルネットワーク(CNN)のアンサンブルからなる特徴生成器を提案する。
複数のXception CNNを用いて抽出した特徴マップを徐々に積み重ねることで、VTモデルのための特徴量豊富な入力を開発することができることを示す。
論文 参考訳(メタデータ) (2021-07-07T20:20:24Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。