論文の概要: Non-linear Functional Modeling using Neural Networks
- arxiv url: http://arxiv.org/abs/2104.09371v2
- Date: Thu, 4 May 2023 00:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 20:05:30.581177
- Title: Non-linear Functional Modeling using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた非線形関数モデリング
- Authors: Aniruddha Rajendra Rao and Matthew Reimherr
- Abstract要約: ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
提案するフレームワークには,連続的な隠蔽層を持つ関数型ニューラルネットワークと,ベース拡張と連続隠蔽層を利用する第2バージョンという,2つのバリエーションがある。
- 参考スコア(独自算出の注目度): 6.624726878647541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new class of non-linear models for functional data based on
neural networks. Deep learning has been very successful in non-linear modeling,
but there has been little work done in the functional data setting. We propose
two variations of our framework: a functional neural network with continuous
hidden layers, called the Functional Direct Neural Network (FDNN), and a second
version that utilizes basis expansions and continuous hidden layers, called the
Functional Basis Neural Network (FBNN). Both are designed explicitly to exploit
the structure inherent in functional data. To fit these models we derive a
functional gradient based optimization algorithm. The effectiveness of the
proposed methods in handling complex functional models is demonstrated by
comprehensive simulation studies and real data examples.
- Abstract(参考訳): ニューラルネットワークに基づく関数型データのための非線形モデルの新たなクラスを導入する。
ディープラーニングは非線形モデリングにおいて非常に成功したが、機能的なデータ設定ではほとんど行われていない。
我々は,機能的直接ニューラルネットワーク(fdnn)と呼ばれる,連続的な隠れ層を持つ機能的ニューラルネットワークと,機能的基底ニューラルネットワーク(fbnn)と呼ばれる基底拡張と連続的隠れ層を利用する2番目のバージョンを提案する。
どちらも関数データに固有の構造を利用するように設計されている。
これらのモデルに適合するため、関数勾配に基づく最適化アルゴリズムを導出する。
複雑な関数モデルを扱うための提案手法の有効性を総合的なシミュレーションと実データ例を用いて実証した。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Functional Neural Networks: Shift invariant models for functional data
with applications to EEG classification [0.0]
我々は、データのスムーズさを保ちながら不変な新しいタイプのニューラルネットワークを導入する:関数型ニューラルネットワーク(FNN)
そこで我々は,多層パーセプトロンと畳み込みニューラルネットワークを機能データに拡張するために,機能データ分析(FDA)の手法を用いる。
脳波(EEG)データの分類にFNNをうまく利用し,FDAのベンチマークモデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-01-14T09:41:21Z) - Deep Neural Network Classifier for Multi-dimensional Functional Data [4.340040784481499]
我々は,多次元関数型データを分類するFDNN(Functional Deep Neural Network)と呼ばれる新しい手法を提案する。
具体的には、将来のデータ関数のクラスラベルを予測するために使用されるトレーニングデータの原則コンポーネントに基づいて、ディープニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-05-17T19:22:48Z) - Modern Non-Linear Function-on-Function Regression [8.231050911072755]
本稿では,ニューラルネットワークを用いた関数データに対する非線形関数オン関数回帰モデルを提案する。
FDNN(Functional Direct Neural Network)とFBNN(Functional Basis Neural Network)の2つのモデルフィッティング戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T16:19:59Z) - Going Beyond Linear RL: Sample Efficient Neural Function Approximation [76.57464214864756]
2層ニューラルネットワークによる関数近似について検討する。
この結果は線形(あるいは可溶性次元)法で達成できることを大幅に改善する。
論文 参考訳(メタデータ) (2021-07-14T03:03:56Z) - Data-Driven Learning of Feedforward Neural Networks with Different
Activation Functions [0.0]
この研究は、フィードフォワードニューラルネットワーク(FNN)学習の新しいデータ駆動手法(D-DM)の開発に寄与する。
論文 参考訳(メタデータ) (2021-07-04T18:20:27Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural Network Structure Design based on N-Gauss Activation Function [0.2578242050187029]
我々は、MNIST、CIFAR10、CIFAR100を訓練するために、コアブロックN-Gauss、N-Gauss、Swishニューラルネットワーク構造設計を導入する。
N-Gaussは、深い畳み込みニューラルネットワークが階層的な非線形マッピング学習能力を持つように、活性化関数の非線形モデリングの主要な役割を果たす。
論文 参考訳(メタデータ) (2021-06-01T11:16:37Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。