論文の概要: NIRMAL Pooling: An Adaptive Max Pooling Approach with Non-linear Activation for Enhanced Image Classification
- arxiv url: http://arxiv.org/abs/2508.10940v1
- Date: Wed, 13 Aug 2025 10:18:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.592181
- Title: NIRMAL Pooling: An Adaptive Max Pooling Approach with Non-linear Activation for Enhanced Image Classification
- Title(参考訳): NIRMAL Pooling: 画像の高次分類のための非線形活性化を用いた適応的最大ポーリング手法
- Authors: Nirmal Gaud, Krishna Kumar Jha, Jhimli Adhikari, Adhini Nasarin P S, Joydeep Das, Samarth S Deshpande, Nitasha Barara, Vaduguru Venkata Ramya, Santu Saha, Mehmet Tarik Baran, Sarangi Venkateshwarlu, Anusha M D, Surej Mouli, Preeti Katiyar, Vipin Kumar Chaudhary,
- Abstract要約: NIRMALは、非線形活性化、中間集約、還元、最大適応、局所化を意味する。
我々は、画像分類タスクに適応的な最大プーリングと非線形アクティベーション機能を統合する、畳み込みニューラルネットワーク(CNN)のための新しいプーリング層であるNIRMAL Poolingを提案する。
我々は、MNIST Digits、MNIST Fashion、CIFAR-10という3つのベンチマークデータセット上で、標準的なMax Poolingに対して、その性能を評価する。
- 参考スコア(独自算出の注目度): 0.5486064112657971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents NIRMAL Pooling, a novel pooling layer for Convolutional Neural Networks (CNNs) that integrates adaptive max pooling with non-linear activation function for image classification tasks. The acronym NIRMAL stands for Non-linear Activation, Intermediate Aggregation, Reduction, Maximum, Adaptive, and Localized. By dynamically adjusting pooling parameters based on desired output dimensions and applying a Rectified Linear Unit (ReLU) activation post-pooling, NIRMAL Pooling improves robustness and feature expressiveness. We evaluated its performance against standard Max Pooling on three benchmark datasets: MNIST Digits, MNIST Fashion, and CIFAR-10. NIRMAL Pooling achieves test accuracies of 99.25% (vs. 99.12% for Max Pooling) on MNIST Digits, 91.59% (vs. 91.44%) on MNIST Fashion, and 70.49% (vs. 68.87%) on CIFAR-10, demonstrating consistent improvements, particularly on complex datasets. This work highlights the potential of NIRMAL Pooling to enhance CNN performance in diverse image recognition tasks, offering a flexible and reliable alternative to traditional pooling methods.
- Abstract(参考訳): 本稿では、画像分類タスクに適応的な最大プーリングと非線形アクティベーション機能を統合する、畳み込みニューラルネットワーク(CNN)のための新しいプーリング層であるNIRMAL Poolingを提案する。
NIRMALの頭字語は、非線形活性化、中間集合、還元、最大、適応、局所化を意味する。
所望の出力次元に基づいてプールパラメータを動的に調整し、Rectified Linear Unit (ReLU) アクティベート後プールを適用することにより、NIRMAL Poolingは堅牢性と特徴表現性を向上させる。
我々は,MNIST Digits,MNIST Fashion,CIFAR-10という3つのベンチマークデータセットを用いて,標準的なMax Poolingと比較した。
NIRMAL Pooling は MNIST Digits で 99.25% (vs. 99.12%)、MNIST Fashion で 91.59% (vs. 91.44%)、CIFAR-10 で 70.49% (vs. 68.87%) というテスト精度を達成した。
この研究は、様々な画像認識タスクにおけるCNN性能を向上させるためにNIRMAL Poolingの可能性を強調し、従来のプール法に代わる柔軟で信頼性の高い代替手段を提供する。
関連論文リスト
- Decoding-Time Language Model Alignment with Multiple Objectives [116.42095026960598]
既存の手法は主に、1つの報酬関数に対してLMを最適化することに集中し、それらの適応性は様々な目的に制限される。
本稿では,予測の線形結合から次のトークンを出力する復号時間アルゴリズムである$textbfmulti-objective decoding (MOD)$を提案する。
提案手法は, 自然条件下であっても, 既存のアプローチが準最適であることを示すとともに, 提案手法の最適性を保証する。
論文 参考訳(メタデータ) (2024-06-27T02:46:30Z) - Towards General Robustness Verification of MaxPool-based Convolutional Neural Networks via Tightening Linear Approximation [51.235583545740674]
MaxLinは、線形近似が厳密なMaxPoolベースのCNNの堅牢性検証器である。
我々は、MNIST、CIFAR-10、Tiny ImageNetデータセットでトレーニングされたLeNetやネットワークを含むオープンソースのベンチマークでMaxLinを評価した。
論文 参考訳(メタデータ) (2024-06-02T10:33:04Z) - An Improved Graph Pooling Network for Skeleton-Based Action Recognition [35.26953105240661]
IGPNと呼ばれる改良グラフポーリングネットワークを提案する。
本手法は,構造分割に基づく領域認識プール戦略を取り入れた手法である。
プラグアンドプレイ構造として,提案手法は既存のGCNモデルとシームレスに組み合わせることができる。
論文 参考訳(メタデータ) (2024-04-25T06:41:58Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - AdaPool: Exponential Adaptive Pooling for Information-Retaining
Downsampling [82.08631594071656]
畳み込み層は畳み込みニューラルネットワーク(CNN)の重要な構成要素である
適応的で指数関数的に重み付けされたアダプール法を提案する。
adaPoolは画像やビデオの分類やオブジェクト検出など,さまざまなタスクを通じて,ディテールの保存性の向上を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:50:37Z) - Learnable Discrete Wavelet Pooling (LDW-Pooling) For Convolutional
Networks [33.45407848136399]
本稿では,標準的なプール操作を置き換えるために汎用的に適用可能なLDW-Pooling(Learning Discrete Wavelet Pooling)を提案する。
LDW-PoolingはWaveletPoolingやLiftPoolingといった他の最先端のプール技術と比較して効率的かつ効率的である。
論文 参考訳(メタデータ) (2021-09-13T08:02:38Z) - Refining activation downsampling with SoftPool [74.1840492087968]
畳み込みニューラルネットワーク(cnns)は、アクティベーションマップのサイズを減らすためにプールを使用する。
指数重化アクティベーションダウンサンプリングの高速かつ効率的な方法であるSoftPoolを提案します。
SoftPoolは、アクティベーションマップの縮小でより多くの情報を保持できることを示します。
論文 参考訳(メタデータ) (2021-01-02T12:09:49Z) - Active Learning in CNNs via Expected Improvement Maximization [2.0305676256390934]
また,Dropout-based IMprOvementS (DEIMOS) は,能動的学習に対する柔軟で計算効率のよいアプローチである。
以上の結果から,DIMOSは複数の回帰・分類タスクにおいて,既存のベースラインよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-11-27T22:06:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。