論文の概要: Semi-Periodic Activation for Time Series Classification
- arxiv url: http://arxiv.org/abs/2412.09889v1
- Date: Fri, 13 Dec 2024 06:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:03:52.429877
- Title: Semi-Periodic Activation for Time Series Classification
- Title(参考訳): 時系列分類のための半周期活性化
- Authors: José Gilberto Barbosa de Medeiros Júnior, Andre Guarnier de Mitri, Diego Furtado Silva,
- Abstract要約: この研究は、時系列ニューラルネットワークにおける活性化のための、有界、単調、非線形性、周期性などの特性を包括的に分析する。
我々はLeakySineLUと呼ばれるこれらの特性のカバレッジを最大化する新しいアクティベーションを提案する。
- 参考スコア(独自算出の注目度): 1.6631602844999722
- License:
- Abstract: This paper investigates the lack of research on activation functions for neural network models in time series tasks. It highlights the need to identify essential properties of these activations to improve their effectiveness in specific domains. To this end, the study comprehensively analyzes properties, such as bounded, monotonic, nonlinearity, and periodicity, for activation in time series neural networks. We propose a new activation that maximizes the coverage of these properties, called LeakySineLU. We empirically evaluate the LeakySineLU against commonly used activations in the literature using 112 benchmark datasets for time series classification, obtaining the best average ranking in all comparative scenarios.
- Abstract(参考訳): 本稿では,時系列タスクにおけるニューラルネットワークモデルの活性化機能に関する研究の欠如について検討する。
これは、特定のドメインにおけるそれらの有効性を改善するために、これらのアクティベーションの本質的な特性を特定する必要性を強調している。
この目的のために、この研究では、時系列ニューラルネットワークの活性化のための境界、単調、非線形性、周期性などの特性を包括的に分析した。
我々はLeakySineLUと呼ばれるこれらの特性のカバレッジを最大化する新しいアクティベーションを提案する。
文献中の一般的なアクティベーションに対してLeakySineLUを,時系列分類のためのベンチマークデータセット112を用いて実証的に評価し,すべてのシナリオで最高の平均ランキングを得た。
関連論文リスト
- Not All Diffusion Model Activations Have Been Evaluated as Discriminative Features [115.33889811527533]
拡散モデルは当初、画像生成のために設計されている。
近年の研究では、バックボーンの内部シグナルはアクティベーションと呼ばれ、様々な識別タスクの高密度な特徴として機能することが示されている。
論文 参考訳(メタデータ) (2024-10-04T16:05:14Z) - Frequency and Generalisation of Periodic Activation Functions in Reinforcement Learning [9.6812227037557]
周期的なアクティベーションは低周波表現を学習し、その結果、ブートストラップされたターゲットへの過度な適合を避けることが示される。
また、重み減衰正則化は周期的活性化関数のオーバーフィットを部分的に相殺できることを示す。
論文 参考訳(メタデータ) (2024-07-09T11:07:41Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Improving Classification Neural Networks by using Absolute activation
function (MNIST/LeNET-5 example) [0.0]
ディープネットワークでは絶対的活性化は消滅や爆発的な勾配を引き起こしないため、絶対的活性化は単純なニューラルネットワークとディープニューラルネットワークの両方で使用できる。
Absolute アクティベーションに基づく LeNet のようなアーキテクチャで MNIST 問題を解くことで,予測精度を向上させることにより,ニューラルネットワーク内のトレーニングパラメータの数を著しく削減できることが示されている。
論文 参考訳(メタデータ) (2023-04-23T22:17:58Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Stochastic Adaptive Activation Function [1.9199289015460212]
本研究では,単位の位置や入力の文脈に応じて,異なるしきい値と適応的なアクティベーションを促進する,シンプルで効果的なアクティベーション関数を提案する。
実験により,我々のアクティベーション関数は,多くのディープラーニングアプリケーションにおいて,より正確な予測と早期収束の利点を享受できることを示した。
論文 参考訳(メタデータ) (2022-10-21T01:57:25Z) - Meta-Learning for Koopman Spectral Analysis with Short Time-series [49.41640137945938]
既存の手法では、ニューラルネットワークのトレーニングに長い時間を要する。
本稿では,未知の短い時系列から埋め込み関数を推定するメタラーニング手法を提案する。
提案手法は,固有値推定と将来予測の観点から,よりよい性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-02-09T07:19:19Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Learn to cycle: Time-consistent feature discovery for action recognition [83.43682368129072]
時間的変動を一般化することは、ビデオにおける効果的な行動認識の前提条件である。
Squeeze Re Temporal Gates (SRTG) を導入する。
SRTPGブロックを使用する場合,GFLOの数は最小限に抑えられ,一貫した改善が見られた。
論文 参考訳(メタデータ) (2020-06-15T09:36:28Z) - Neural Networks Fail to Learn Periodic Functions and How to Fix It [6.230751621285322]
本稿では,ReLU, tanh, sigmoidなどの標準活性化関数が単純な周期関数の外挿を学ばないことを示す。
我々は、周期関数を学ぶために所望の周期的帰納バイアスを達成する新しいアクティベーションである$x + sin2(x)$を提案する。
実験により,提案手法を温度・財務データ予測に適用した。
論文 参考訳(メタデータ) (2020-06-15T07:49:33Z) - A survey on modern trainable activation functions [0.0]
本稿では,訓練可能なアクティベーション関数の分類法を提案し,近年のモデルと過去のモデルの共通性と特異性を強調した。
提案手法の多くは、固定的な(訓練不能な)アクティベーション関数を使用するニューロン層の追加と等価であることを示す。
論文 参考訳(メタデータ) (2020-05-02T12:38:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。