論文の概要: Comparison of different convolutional neural network activa-tion
functions and methods for building ensembles
- arxiv url: http://arxiv.org/abs/2103.15898v1
- Date: Mon, 29 Mar 2021 19:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 08:00:09.425036
- Title: Comparison of different convolutional neural network activa-tion
functions and methods for building ensembles
- Title(参考訳): 異なる畳み込み型ニューラルネットワークアクティベーション機能とアンサンブル構築方法の比較
- Authors: Loris Nanni, Gianluca Maguolo, Sheryl Brahnam, Michelangelo Paci
- Abstract要約: 本研究では、異なるアクティベーション機能を備えたCNNアンサンブルの性能を検討する。
最高パフォーマンスのアンサンブルは、標準のReLUをランダムに置き換える異なるアクティベーション層を持つCNNで構築された。
- 参考スコア(独自算出の注目度): 12.24839716910078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, much attention has been devoted to finding highly efficient and
powerful activation functions for CNN layers. Because activation functions
inject different nonlinearities between layers that affect performance, varying
them is one method for building robust ensembles of CNNs. The objective of this
study is to examine the performance of CNN ensembles made with different
activation functions, including six new ones presented here: 2D Mexican ReLU,
TanELU, MeLU+GaLU, Symmetric MeLU, Symmetric GaLU, and Flexible MeLU. The
highest performing ensemble was built with CNNs having different activation
layers that randomly replaced the standard ReLU. A comprehensive evaluation of
the proposed approach was conducted across fifteen biomedical data sets
representing various classification tasks. The proposed method was tested on
two basic CNN architectures: Vgg16 and ResNet50. Results demonstrate the
superiority in performance of this approach. The MATLAB source code for this
study will be available at https://github.com/LorisNanni.
- Abstract(参考訳): 近年,CNN層に対する高効率かつ強力な活性化関数の発見に注目が集まっている。
活性化関数は、性能に影響を与える層間で異なる非線形性を注入するため、CNNの堅牢なアンサンブルを構築するための1つの方法である。
本研究の目的は,2D Mexican ReLU, TanELU, MeLU+GaLU, Symmetric MeLU, Symmetric GaLU, Flexible MeLUの6種類の異なるアクティベーション機能を持つCNNアンサンブルの性能について検討することである。
最高パフォーマンスのアンサンブルは、標準のReLUをランダムに置き換える異なるアクティベーション層を持つCNNで構築された。
様々な分類課題を表す15のバイオメディカルデータセットを対象に,提案手法の総合評価を行った。
提案手法はvgg16とresnet50の2つの基本的なcnnアーキテクチャ上でテストされた。
結果は、このアプローチのパフォーマンスにおける優位性を示している。
この研究のMATLABソースコードはhttps://github.com/LorisNanni.comで入手できる。
関連論文リスト
- Activation function optimization method: Learnable series linear units (LSLUs) [12.089173508371246]
LSLU (Learnable Series Linear Units) と呼ばれる直列学習可能なac-tivation関数を提案する。
この方法は、精度を向上しつつ、ディープラーニングネットワークを単純化する。
CIFAR10, CIFAR100および特定のタスクデータセット(例えばSilkworm)上でのLSLUの性能を評価する。
論文 参考訳(メタデータ) (2024-08-28T11:12:27Z) - Evaluating CNN with Oscillatory Activation Function [0.0]
画像から高次元の複雑な特徴を学習できるCNNは、アクティベーション関数によって導入された非線形性である。
本稿では、発振活性化関数(GCU)と、ReLu、PReLu、Mishなどの一般的なアクティベーション関数を用いて、MNISTおよびCIFAR10データセット上でのCNNアーキテクチャALexNetの性能について検討する。
論文 参考訳(メタデータ) (2022-11-13T11:17:13Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Graph-adaptive Rectified Linear Unit for Graph Neural Networks [64.92221119723048]
グラフニューラルネットワーク(GNN)は、従来の畳み込みを非ユークリッドデータでの学習に拡張することで、目覚ましい成功を収めた。
本稿では,周辺情報を利用した新しいパラメトリックアクティベーション機能であるグラフ適応整流線形ユニット(GRELU)を提案する。
我々は,GNNのバックボーンと様々な下流タスクによって,プラグアンドプレイGRELU法が効率的かつ効果的であることを示す包括的実験を行った。
論文 参考訳(メタデータ) (2022-02-13T10:54:59Z) - A Comprehensive Survey and Performance Analysis of Activation Functions
in Deep Learning [23.83339228535986]
さまざまなタイプの問題に対処するために、さまざまなタイプのニューラルネットワークが導入されている。
ニューラルネットワークの主な目標は、非線形分離可能な入力データをより線形分離可能な抽象的特徴に変換することである。
最もポピュラーで一般的な非線形層は、ロジスティックシグモド、タン、ReLU、ELU、Swish、Mishなどのアクティベーション関数(AF)である。
論文 参考訳(メタデータ) (2021-09-29T16:41:19Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z) - Trainable Activation Function in Image Classification [0.0]
本稿では、ディープニューラルネットワークにおいてアクティベーション機能をトレーニング可能にする方法について論じる。
アクティベーション関数を連続的に変動させる異なるアクティベーション関数の直列結合と線形結合を用いる。
論文 参考訳(メタデータ) (2020-04-28T03:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。