論文の概要: Toward Improving fNIRS Classification: A Study on Activation Functions in Deep Neural Architectures
- arxiv url: http://arxiv.org/abs/2507.11436v1
- Date: Tue, 15 Jul 2025 15:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.180806
- Title: Toward Improving fNIRS Classification: A Study on Activation Functions in Deep Neural Architectures
- Title(参考訳): fNIRS分類の改善に向けて:ディープニューラルアーキテクチャにおける活性化関数に関する研究
- Authors: Behtom Adeli, John McLinden, Pankaj Pandey, Ming Shao, Yalda Shahriari,
- Abstract要約: 機能的近赤外分光法(fNIRS)のような領域における深部ニューラルネットワークの性能には活性化関数が不可欠である
本研究では,複数のディープラーニングアーキテクチャを用いて,fNIRS分類タスクに対する従来型およびフィールド固有のアクティベーション機能の評価を行った。
- 参考スコア(独自算出の注目度): 7.243563999211656
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Activation functions are critical to the performance of deep neural networks, particularly in domains such as functional near-infrared spectroscopy (fNIRS), where nonlinearity, low signal-to-noise ratio (SNR), and signal variability poses significant challenges to model accuracy. However, the impact of activation functions on deep learning (DL) performance in the fNIRS domain remains underexplored and lacks systematic investigation in the current literature. This study evaluates a range of conventional and field-specific activation functions for fNIRS classification tasks using multiple deep learning architectures, including the domain-specific fNIRSNet, AbsoluteNet, MDNN, and shallowConvNet (as the baseline), all tested on a single dataset recorded during an auditory task. To ensure fair a comparison, all networks were trained and tested using standardized preprocessing and consistent training parameters. The results show that symmetrical activation functions such as Tanh and the Absolute value function Abs(x) can outperform commonly used functions like the Rectified Linear Unit (ReLU), depending on the architecture. Additionally, a focused analysis of the role of symmetry was conducted using a Modified Absolute Function (MAF), with results further supporting the effectiveness of symmetrical activation functions on performance gains. These findings underscore the importance of selecting proper activation functions that align with the signal characteristics of fNIRS data.
- Abstract(参考訳): 特に機能的近赤外分光法(fNIRS)では、非線形性、低信号-雑音比(SNR)、信号の可変性が重要な課題となる。
しかし,fNIRS領域におけるアクティベーション関数の深層学習(DL)性能への影響は未解明であり,現在の文献では体系的な研究が欠如している。
本研究では、ドメイン固有のfNIRSNet、AbsoluteNet、MDNN、および浅いConvNet(ベースライン)を含む複数のディープラーニングアーキテクチャを用いて、fNIRS分類タスクに対する従来型およびフィールド固有のアクティベーション機能の評価を行った。
比較を公平にするために、すべてのネットワークは、標準化された前処理と一貫したトレーニングパラメータを使用してトレーニングされ、テストされた。
その結果、TanhやAbsolute値関数 Abs(x) のような対称活性化関数は、アーキテクチャによってはRectified Linear Unit (ReLU) のような一般的な関数よりも優れていることが示された。
さらに, 改良絶対関数 (MAF) を用いて対称性の役割の集中解析を行い, 性能向上に対する対称活性化関数の有効性をさらに裏付けた。
これらの結果は、fNIRSデータの信号特性に合わせて適切なアクティベーション関数を選択することの重要性を浮き彫りにした。
関連論文リスト
- Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Fractional Concepts in Neural Networks: Enhancing Activation Functions [0.6445605125467574]
本研究では、活性化関数のチューナブルパラメータとして分数次微分(FDO)を導入することにより、分数計算をニューラルネットワークに統合する。
各種データセットおよびネットワークアーキテクチャ上でのこれらの分数活性化関数の評価を行い、それらの性能と従来型および新しいアクティベーション関数との比較を行った。
論文 参考訳(メタデータ) (2023-10-18T10:49:29Z) - Physics Inspired Hybrid Attention for SAR Target Recognition [61.01086031364307]
本稿では,物理にヒントを得たハイブリットアテンション(PIHA)機構と,この問題に対処するためのOFA評価プロトコルを提案する。
PIHAは、物理的情報の高レベルなセマンティクスを活用して、ターゲットの局所的なセマンティクスを認識した特徴群を活性化し、誘導する。
提案手法は,ASCパラメータが同じ12のテストシナリオにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-27T14:39:41Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - GELU Activation Function in Deep Learning: A Comprehensive Mathematical
Analysis and Performance [2.458437232470188]
GELU活性化関数の可微分性, 有界性, 定常性, 滑らか性について検討した。
GELUは,他のアクティベーション機能と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-20T03:22:43Z) - Transformers with Learnable Activation Functions [63.98696070245065]
我々は、Rational Activation Function (RAF) を用いて、入力データに基づいてトレーニング中の最適なアクティベーション関数を学習する。
RAFは、学習されたアクティベーション関数に従って事前学習されたモデルを分析し、解釈するための新しい研究方向を開く。
論文 参考訳(メタデータ) (2022-08-30T09:47:31Z) - Data-Driven Learning of Feedforward Neural Networks with Different
Activation Functions [0.0]
この研究は、フィードフォワードニューラルネットワーク(FNN)学習の新しいデータ駆動手法(D-DM)の開発に寄与する。
論文 参考訳(メタデータ) (2021-07-04T18:20:27Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z) - Discovering Parametric Activation Functions [17.369163074697475]
本稿では,アクティベーション機能を自動でカスタマイズする手法を提案する。
CIFAR-10とCIFAR-100の画像分類データセット上の4つの異なるニューラルネットワークアーキテクチャによる実験は、このアプローチが有効であることを示している。
論文 参考訳(メタデータ) (2020-06-05T00:25:33Z) - Investigating the interaction between gradient-only line searches and
different activation functions [0.0]
勾配専用線探索(GOLS)は、ニューラルネットワークトレーニングにおける不連続損失関数の探索方向に沿ったステップサイズを適応的に決定する。
GOLSは様々なアクティベーション機能に対して堅牢であるが,標準フィードフォワードアーキテクチャにおけるRectified Linear Unit(ReLU)アクティベーション機能に敏感であることがわかった。
論文 参考訳(メタデータ) (2020-02-23T12:28:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。