論文の概要: LayerAct: Advanced activation mechanism utilizing layer-direction
normalization for CNNs with BatchNorm
- arxiv url: http://arxiv.org/abs/2306.04940v3
- Date: Sun, 4 Feb 2024 10:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 06:18:43.821609
- Title: LayerAct: Advanced activation mechanism utilizing layer-direction
normalization for CNNs with BatchNorm
- Title(参考訳): LayerAct: BatchNormを用いたCNNの層方向正規化を利用した高度なアクティベーション機構
- Authors: Kihyuk Yoon and Chiehyeon Lim
- Abstract要約: LayerAct 関数は、既存の要素レベルのアクティベーション関数よりもノイズが強いように設計されている。
また,LayerAct関数は,素子レベルのアクティベーション関数よりも優れたノイズ・ロバスト性を示すことを示す。
- 参考スコア(独自算出の注目度): 3.413632819633068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel activation mechanism aimed at establishing
layer-level activation (LayerAct) functions for CNNs with BatchNorm. These
functions are designed to be more noise-robust compared to existing
element-level activation functions by reducing the layer-level fluctuation of
the activation outputs due to shift in inputs. Moreover, the LayerAct functions
achieve this noise-robustness independent of the activation's saturation state,
which limits the activation output space and complicates efficient training. We
present an analysis and experiments demonstrating that LayerAct functions
exhibit superior noise-robustness compared to element-level activation
functions, and empirically show that these functions have a zero-like mean
activation. Experimental results with three clean and three out-of-distribution
benchmark datasets for image classification tasks show that LayerAct functions
excel in handling noisy datasets, outperforming element-level activation
functions, while the performance on clean datasets is also superior in most
cases.
- Abstract(参考訳): 本稿では,バッチノルムを用いたcnnのレイヤレベルアクティベーション(layeract)機能を確立するための新しいアクティベーションメカニズムを提案する。
これらの関数は、入力のシフトによるアクティベーション出力の層レベルのゆらぎを低減し、既存の要素レベルのアクティベーション関数よりもノイズローバストに設計されている。
さらに,アクティベーションの飽和状態に依存しないノイズロバスト性を実現し,アクティベーション出力空間を制限し,効率的なトレーニングを複雑化する。
本稿では,要素レベルの活性化関数に比べ,層状関数がノイズロバスト性に優れることを示す解析と実験を行い,これらの関数がゼロライクな平均活性化を持つことを示す。
画像分類タスクのためのクリーンな3つのアウト・オブ・ディストリビューション・ベンチマークデータセットによる実験結果は、LayerAct関数がノイズの多いデータセット、要素レベルのアクティベーション関数よりも優れており、クリーンなデータセットのパフォーマンスもほとんどのケースで優れていることを示している。
関連論文リスト
- Improving Quaternion Neural Networks with Quaternionic Activation Functions [3.8750364147156247]
四元数等級や位相を変更できる新しい四元数活性化関数を提案する。
提案した活性化関数は、勾配降下法で訓練された任意の四元数値ニューラルネットワークに組み込むことができる。
論文 参考訳(メタデータ) (2024-06-24T09:36:58Z) - ProSparse: Introducing and Enhancing Intrinsic Activation Sparsity within Large Language Models [74.59731375779934]
活性化スパーシリティ(Activation sparsity)とは、活性化出力の間に弱い分散要素が存在することを指す。
本稿では,PLMを高活性化空間にプッシュするために,"ProSparse" という,シンプルで効果的なスペース化手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T03:58:49Z) - ReLU$^2$ Wins: Discovering Efficient Activation Functions for Sparse
LLMs [91.31204876440765]
本稿では、ニューロンの出力の等級と調整された等級しきい値によってニューロンの活性化を定義する一般的な方法を提案する。
スパース計算における最も効率的なアクティベーション関数を見つけるために,本手法を提案する。
我々は、ReLU、SwiGLU、ReGLU、ReLU$2$といった異なるアクティベーション機能を利用したLCMの徹底的な実験を行う。
論文 参考訳(メタデータ) (2024-02-06T08:45:51Z) - Saturated Non-Monotonic Activation Functions [21.16866749728754]
SGELU, SSiLU, SMishはGELU, SiLU, Mishの負の部分とReLUの正の部分から構成される。
CIFAR-100における画像分類実験の結果,提案するアクティベーション関数は,複数のディープラーニングアーキテクチャにおいて,高い有効性と,最先端のベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-05-12T15:01:06Z) - Efficient Activation Function Optimization through Surrogate Modeling [15.219959721479835]
本稿は,3つのステップを通じて,芸術の状況を改善することを目的としている。
まず、Act-Bench-CNN、Act-Bench-ResNet、Act-Bench-ViTのベンチマークは、畳み込み、残留、ビジョントランスフォーマーアーキテクチャのトレーニングによって作成された。
第2に、ベンチマーク空間のキャラクタリゼーションが開発され、新しいサロゲートに基づく最適化手法が開発された。
論文 参考訳(メタデータ) (2023-01-13T23:11:14Z) - Evaluating CNN with Oscillatory Activation Function [0.0]
画像から高次元の複雑な特徴を学習できるCNNは、アクティベーション関数によって導入された非線形性である。
本稿では、発振活性化関数(GCU)と、ReLu、PReLu、Mishなどの一般的なアクティベーション関数を用いて、MNISTおよびCIFAR10データセット上でのCNNアーキテクチャALexNetの性能について検討する。
論文 参考訳(メタデータ) (2022-11-13T11:17:13Z) - Transformers with Learnable Activation Functions [63.98696070245065]
我々は、Rational Activation Function (RAF) を用いて、入力データに基づいてトレーニング中の最適なアクティベーション関数を学習する。
RAFは、学習されたアクティベーション関数に従って事前学習されたモデルを分析し、解釈するための新しい研究方向を開く。
論文 参考訳(メタデータ) (2022-08-30T09:47:31Z) - Learning to Refactor Action and Co-occurrence Features for Temporal
Action Localization [74.74339878286935]
アクション機能と共起機能は、しばしばビデオの実際のアクションコンテンツを支配します。
ビデオスニペット内でこれらの2種類の特徴を分離することで,新しい補助タスクを開発する。
まず、アクション内容を明示的に分解し、その共起機能を正規化します。
論文 参考訳(メタデータ) (2022-06-23T06:30:08Z) - Activation Functions: Dive into an optimal activation function [1.52292571922932]
既存のアクティベーション関数の重み付け和として定義することで、最適なアクティベーション関数を求める。
この研究は、ReLU、tanh、 sinという3つのアクティベーション関数を3つの人気のある画像データセットに使用しています。
論文 参考訳(メタデータ) (2022-02-24T12:44:11Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。