論文の概要: The relationship between Fully Connected Layers and number of classes
for the analysis of retinal images
- arxiv url: http://arxiv.org/abs/2004.03624v2
- Date: Tue, 14 Apr 2020 15:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:29:40.206939
- Title: The relationship between Fully Connected Layers and number of classes
for the analysis of retinal images
- Title(参考訳): 網膜画像解析における完全連結層とクラス数の関係
- Authors: Ajna Ram, Constantino Carlos Reyes-Aldasoro
- Abstract要約: 本稿では、基底網膜画像の分類に応用した深部畳み込みニューラルネットワークにおける完全連結層数について実験を行った。
その結果, 完全連結層数の増加効果は, 使用するデータセットの種類に依存することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper experiments with the number of fully-connected layers in a deep
convolutional neural network as applied to the classification of fundus retinal
images. The images analysed corresponded to the ODIR 2019 (Peking University
International Competition on Ocular Disease Intelligent Recognition) [9], which
included images of various eye diseases (cataract, glaucoma, myopia, diabetic
retinopathy, age-related macular degeneration (AMD), hypertension) as well as
normal cases. This work focused on the classification of Normal, Cataract, AMD
and Myopia. The feature extraction (convolutional) part of the neural network
is kept the same while the feature mapping (linear) part of the network is
changed. Different data sets are also explored on these neural nets. Each data
set differs from another by the number of classes it has. This paper hence aims
to find the relationship between number of classes and number of
fully-connected layers. It was found out that the effect of increasing the
number of fully-connected layers of a neural networks depends on the type of
data set being used. For simple, linearly separable data sets, addition of
fully-connected layer is something that should be explored and that could
result in better training accuracy, but a direct correlation was not found.
However as complexity of the data set goes up(more overlapping classes),
increasing the number of fully-connected layers causes the neural network to
stop learning. This phenomenon happens quicker the more complex the data set
is.
- Abstract(参考訳): 本稿では、基底網膜画像の分類に応用した深部畳み込みニューラルネットワークにおける完全連結層数について実験を行った。
解析された画像はodir 2019 (peking university international competition on ocular disease intelligent recognition) [9]に対応しており、正常例と同様に様々な眼疾患(カタラクト、緑内障、近視、糖尿病網膜症、加齢黄斑変性(amd)、高血圧)の画像が含まれていた。
本研究は,正常,白内障,amd,近視の分類に焦点をあてた。
ニューラルネットワークの特徴抽出部(畳み込み部)は、ネットワークの特徴マッピング部(線形部)が変更されている間、そのまま保持される。
これらのニューラルネット上では、異なるデータセットが探索される。
各データセットは、クラスの数によって異なる。
そこで本研究では,クラス数と完全連結層数との関係について述べる。
その結果、ニューラルネットワークの完全連結層数を増やす効果は、使用されるデータセットの種類に依存することがわかった。
単純で線形分離可能なデータセットでは、完全連結層の追加は検討されるべきであり、訓練精度が向上する可能性があるが、直接的な相関は見つからなかった。
しかし、データセットの複雑さが増す(より多くの重複クラス)と、完全に接続されたレイヤーの数が増えると、ニューラルネットワークは学習をやめる。
この現象はデータセットがより複雑になるほど早く起こる。
関連論文リスト
- Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - A Comprehensive Survey and Performance Analysis of Activation Functions
in Deep Learning [23.83339228535986]
さまざまなタイプの問題に対処するために、さまざまなタイプのニューラルネットワークが導入されている。
ニューラルネットワークの主な目標は、非線形分離可能な入力データをより線形分離可能な抽象的特徴に変換することである。
最もポピュラーで一般的な非線形層は、ロジスティックシグモド、タン、ReLU、ELU、Swish、Mishなどのアクティベーション関数(AF)である。
論文 参考訳(メタデータ) (2021-09-29T16:41:19Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Harnessing spatial homogeneity of neuroimaging data: patch individual
filter layers for CNNs [0.0]
ニューラルネットワークにおける階層的抽象化の考え方と、ニューロイメージングデータの空間的均一性に先立って、新しいCNNアーキテクチャを提案する。
重みを共有せずに個々の画像領域(パッチ)でフィルタを学習することにより、PIF層は抽象的特徴をより早く、より少ないサンプルで学習することができる。
論文 参考訳(メタデータ) (2020-07-23T10:11:43Z) - What Do Neural Networks Learn When Trained With Random Labels? [20.54410239839646]
我々は、完全にランダムなラベルを持つ自然画像データに基づいて訓練されたディープニューラルネットワーク(DNN)について研究する。
ネットワークパラメータとデータの主成分間のアライメントをランダムラベルでトレーニングする場合に行う畳み込みネットワークと完全連結ネットワークを解析的に示す。
ランダムラベルで事前トレーニングされたネットワークは、スクラッチからのトレーニングに比べて、下流でのトレーニングを高速化する。
論文 参考訳(メタデータ) (2020-06-18T12:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。