論文の概要: SoftReMish: A Novel Activation Function for Enhanced Convolutional Neural Networks for Visual Recognition Performance
- arxiv url: http://arxiv.org/abs/2507.06148v1
- Date: Tue, 08 Jul 2025 16:29:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.344122
- Title: SoftReMish: A Novel Activation Function for Enhanced Convolutional Neural Networks for Visual Recognition Performance
- Title(参考訳): SoftReMish: 視覚認識性能向上のための畳み込みニューラルネットワークのための新しいアクティベーション機能
- Authors: Mustafa Bayram Gücen,
- Abstract要約: SoftReMishは、画像分類タスクにおける畳み込みニューラルネットワーク(CNN)のパフォーマンスを改善するために設計された、新しいアクティベーション機能である。
ReLU、Tanh、Mishなどの一般的なアクティベーション機能に対して評価された。
その結果、SoftReMishは最小損失(3.14e-8)と検証精度(99.41%)を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, SoftReMish, a new activation function designed to improve the performance of convolutional neural networks (CNNs) in image classification tasks, is proposed. Using the MNIST dataset, a standard CNN architecture consisting of two convolutional layers, max pooling, and fully connected layers was implemented. SoftReMish was evaluated against popular activation functions including ReLU, Tanh, and Mish by replacing the activation function in all trainable layers. The model performance was assessed in terms of minimum training loss and maximum validation accuracy. Results showed that SoftReMish achieved a minimum loss (3.14e-8) and a validation accuracy (99.41%), outperforming all other functions tested. These findings demonstrate that SoftReMish offers better convergence behavior and generalization capability, making it a promising candidate for visual recognition tasks.
- Abstract(参考訳): 本研究では,画像分類タスクにおける畳み込みニューラルネットワーク(CNN)の性能向上を目的とした,新たなアクティベーション機能であるSoftReMishを提案する。
MNISTデータセットを使用して、2つの畳み込み層、最大プーリング、完全に接続された層からなる標準CNNアーキテクチャを実装した。
SoftReMishは、トレーニング可能なすべてのレイヤのアクティベーション機能を置き換えることで、ReLU、Tanh、Mishなどの一般的なアクティベーション機能に対して評価された。
モデル性能は,最小トレーニング損失と最大検証精度で評価した。
その結果、SoftReMishは最小損失(3.14e-8)と検証精度(99.41%)を達成した。
これらの結果から,SoftReMishはより優れた収束行動と一般化能力を提供し,視覚認識タスクの候補となる可能性が示唆された。
関連論文リスト
- Activation Function Optimization Scheme for Image Classification [20.531966402727708]
活性化関数は、ディープニューラルネットワークの力学、収束、性能に大きな影響を及ぼす。
本稿では,画像分類タスクに特化してアクティベーション関数を最適化するための進化的アプローチを提案する。
我々は、指数誤差線形ユニット(EELU)と呼ばれる一連の高パフォーマンス活性化関数を得る。
論文 参考訳(メタデータ) (2024-09-07T21:40:15Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - A Non-monotonic Smooth Activation Function [4.269446061678759]
活性化関数は、ネットワークに非線形性を導入するため、ディープラーニングモデルにおいて不可欠である。
本研究では,非単調かつ滑らかな機能であるSqishと呼ばれる新しいアクティベーション関数を提案する。
分類,物体検出,セグメンテーションタスク,対向ロバストネス実験において,その優位性を示した。
論文 参考訳(メタデータ) (2023-10-16T07:09:47Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Improved Convergence Guarantees for Shallow Neural Networks [91.3755431537592]
勾配降下法により訓練された深度2ニューラルネットの収束度を世界最小とする。
我々のモデルには、二次損失関数による回帰、完全連結フィードフォワードアーキテクチャ、RelUアクティベーション、ガウスデータインスタンス、逆ラベルといった特徴がある。
彼らは、少なくとも我々のモデルでは、収束現象がNTK体制をはるかに超越していることを強く示唆している」。
論文 参考訳(メタデータ) (2022-12-05T14:47:52Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - MicroNet: Improving Image Recognition with Extremely Low FLOPs [82.54764264255505]
疎結合性と動的アクティベーション関数の2つの要因が,精度向上に有効であることがわかった。
非線形性を改善するために動的シフトマックスと呼ばれる新しい動的アクティベーション関数を提案する。
私たちはMicroNetというネットワークのファミリに到達し、低FLOP体制下での最先端技術に対して大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2021-08-12T17:59:41Z) - Learning specialized activation functions with the Piecewise Linear Unit [7.820667552233989]
本稿では, 注意深く設計した定式化学習法を組み込んだ, 区分線形単位 (pwlu) と呼ばれる新しい活性化関数を提案する。
特殊なアクティベーション機能を学び、ImageNetやCOCOなどの大規模データセットでSOTA性能を達成できます。
PWLUは推論時に実装も簡単で効率も良く、現実世界のアプリケーションにも広く適用できる。
論文 参考訳(メタデータ) (2021-04-08T11:29:11Z) - Comparison of different convolutional neural network activa-tion
functions and methods for building ensembles [12.24839716910078]
本研究では、異なるアクティベーション機能を備えたCNNアンサンブルの性能を検討する。
最高パフォーマンスのアンサンブルは、標準のReLUをランダムに置き換える異なるアクティベーション層を持つCNNで構築された。
論文 参考訳(メタデータ) (2021-03-29T19:12:41Z) - A ReLU Dense Layer to Improve the Performance of Neural Networks [40.2470651460466]
トレーニングされたニューラルネットワークの性能を向上させるために,ReDenseをシンプルかつ低複雑性な方法として提案する。
実験により、ReDenseは様々なニューラルネットワークアーキテクチャのトレーニングおよびテスト性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-10-22T11:56:01Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。