論文の概要: hyper-sinh: An Accurate and Reliable Function from Shallow to Deep
Learning in TensorFlow and Keras
- arxiv url: http://arxiv.org/abs/2011.07661v1
- Date: Sun, 15 Nov 2020 23:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:48:47.206048
- Title: hyper-sinh: An Accurate and Reliable Function from Shallow to Deep
Learning in TensorFlow and Keras
- Title(参考訳): Hyper-sinh:TensorFlowとKerasの浅層から深層学習までの正確で信頼性の高い機能
- Authors: Luca Parisi, Renfei Ma, Narrendar RaviChandran and Matteo Lanzillotta
- Abstract要約: hyper-sinhは、CNNのような教師あり学習のためのディープラーニング(DL)ベースのアルゴリズムに適したm-arcsinhアクティベーション機能のバリエーションである。
オープンソースのPythonライブラリとKerasで開発された。
- 参考スコア(独自算出の注目度): 3.3073775218038883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the 'hyper-sinh', a variation of the m-arcsinh activation
function suitable for Deep Learning (DL)-based algorithms for supervised
learning, such as Convolutional Neural Networks (CNN). hyper-sinh, developed in
the open source Python libraries TensorFlow and Keras, is thus described and
validated as an accurate and reliable activation function for both shallow and
deep neural networks. Improvements in accuracy and reliability in image and
text classification tasks on five (N = 5) benchmark data sets available from
Keras are discussed. Experimental results demonstrate the overall competitive
classification performance of both shallow and deep neural networks, obtained
via this novel function. This function is evaluated with respect to gold
standard activation functions, demonstrating its overall competitive accuracy
and reliability for both image and text classification.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(cnn)のような教師付き学習のための深層学習アルゴリズムに適したm-arcsinh活性化関数の変種である「ハイパーシン」を提案する。
オープンソースのpythonライブラリtensorflowとkerasで開発されたhyper-sinhは、浅層ニューラルネットワークと深層ニューラルネットワークの両方の正確かつ信頼性の高いアクティベーション関数として記述され、検証される。
Kerasから利用可能な5つのベンチマークデータセット(N = 5)における画像およびテキスト分類タスクの精度の向上と信頼性について論じる。
実験の結果、浅層と深層の両方のニューラルネットワークの全体的な競合的分類性能が得られた。
この機能はゴールド標準活性化関数について評価され、画像とテキストの分類における全体的な競合の正確性と信頼性を示している。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Bayesian Time-Series Classifier for Decoding Simple Visual Stimuli from
Intracranial Neural Activity [0.0]
本稿では,ハイレベルな解釈性を維持しつつ,課題に対処する簡易なベイズ時系列分類器(BTsC)モデルを提案する。
視覚的タスクにおける色をデコードするためにニューラルネットワークを利用することで、このアプローチの分類能力を実証する。
提案手法は,様々なタスクで記録されたニューラルデータに適用可能である。
論文 参考訳(メタデータ) (2023-07-28T17:04:06Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations [0.0]
活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
論文 参考訳(メタデータ) (2023-05-28T16:52:25Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Explainable Deep Belief Network based Auto encoder using novel Extended
Garson Algorithm [6.228766191647919]
我々はDeep Belief Network based Auto-Encoder (DBNA) を説明するアルゴリズムを開発した。
DBN内の各入力機能のコントリビューションを決定するために使用される。
この方法によって同定された重要な特徴は、ウォルドチ広場(chi2)で得られたものと比較される。
論文 参考訳(メタデータ) (2022-07-18T10:44:02Z) - Optimal Learning Rates of Deep Convolutional Neural Networks: Additive
Ridge Functions [19.762318115851617]
深部畳み込みニューラルネットワークにおける平均2乗誤差解析について考察する。
付加的なリッジ関数に対しては、畳み込みニューラルネットワークとReLUアクティベーション関数を併用した1つの完全連結層が最適極小値に到達できることが示される。
論文 参考訳(メタデータ) (2022-02-24T14:22:32Z) - End-to-End Learning of Deep Kernel Acquisition Functions for Bayesian
Optimization [39.56814839510978]
ニューラルネットワークに基づくカーネルを用いたベイズ最適化のためのメタラーニング手法を提案する。
我々のモデルは、複数のタスクから強化学習フレームワークによって訓練されている。
3つのテキスト文書データセットを用いた実験において,提案手法が既存の手法よりも優れたBO性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-01T00:42:31Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。