論文の概要: FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input
Spaces
- arxiv url: http://arxiv.org/abs/2009.09111v2
- Date: Tue, 22 Sep 2020 04:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:39:45.239399
- Title: FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input
Spaces
- Title(参考訳): funcnn:一般化入力空間を用いたディープニューラルネットワークに適合するrパッケージ
- Authors: Barinder Thind, Sidi Wu, Richard Groenewald, Jiguo Cao
- Abstract要約: 関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のパッケージである。
本稿では,モデルの構築や予測,クロスバリデーションの実行を容易にする機能を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks have excelled at regression and classification problems when
the input space consists of scalar variables. As a result of this proficiency,
several popular packages have been developed that allow users to easily fit
these kinds of models. However, the methodology has excluded the use of
functional covariates and to date, there exists no software that allows users
to build deep learning models with this generalized input space. To the best of
our knowledge, the functional neural network (FuncNN) library is the first such
package in any programming language; the library has been developed for R and
is built on top of the keras architecture. Throughout this paper, several
functions are introduced that provide users an avenue to easily build models,
generate predictions, and run cross-validations. A summary of the underlying
methodology is also presented. The ultimate contribution is a package that
provides a set of general modelling and diagnostic tools for data problems in
which there exist both functional and scalar covariates.
- Abstract(参考訳): 入力空間がスカラー変数からなる場合、ニューラルネットワークは回帰や分類の問題に優れていた。
この習熟度から,ユーザがこのようなモデルに容易に適合できるような,いくつかの人気パッケージが開発されている。
しかし、この方法論は機能的共変量の使用を除外しており、この一般化された入力空間でディープラーニングモデルを構築できるソフトウェアは存在しない。
我々の知る限り、関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のそのようなパッケージであり、ライブラリはR向けに開発され、ケラスアーキテクチャの上に構築されている。
本稿では,モデルの構築,予測生成,クロスバリデーションの実行を容易にするいくつかの機能を紹介する。
基礎となる方法論の要約も紹介する。
究極の貢献は、関数型とスカラー型の両方の共変量が存在するデータ問題の一般的なモデリングと診断ツールセットを提供するパッケージである。
関連論文リスト
- cito: An R package for training neural networks using torch [0.0]
citoは、ディープラーニング(DL)アプリケーションのためのユーザフレンドリーなRパッケージである。
多くのRパッケージで使われている慣れ親しんだ式構文でDNNを指定することができる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
論文 参考訳(メタデータ) (2023-03-16T18:54:20Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Deep Learning for Functional Data Analysis with Adaptive Basis Layers [11.831982475316641]
本稿では,マイクロニューラルネットワークとして実装された各基底関数を隠蔽ユニットとする,新しいBasis Layerを用いたニューラルネットワークを提案する。
我々のアーキテクチャは、入力関数の無関係な変化ではなく、ターゲットに関連する情報にのみ焦点をあてる機能入力に、擬似次元還元を適用することを学ぶ。
論文 参考訳(メタデータ) (2021-06-19T04:05:13Z) - Understanding Neural Code Intelligence Through Program Simplification [3.9704927572880253]
コードインテリジェンスシステムにおけるモデルに対する重要な入力特徴を特定するためのモデルに依存しないアプローチを提案する。
当社のアプローチであるSIVANDでは,CIモデルの入力プログラムのサイズを縮小する単純化手法を採用しています。
SIVANDの抽出した特徴は、ニューラルCIシステムの予測と学習行動を理解するのに役立つと信じている。
論文 参考訳(メタデータ) (2021-06-07T05:44:29Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Deep Learning with Functional Inputs [0.0]
本稿では,機能データをフィードフォワードニューラルネットワークに統合する手法を提案する。
この手法の副産物は、最適化プロセス中に可視化できる動的な機能的重みの集合である。
このモデルは、新しいデータの予測や真の機能的重みの回復など、多くの文脈でうまく機能することが示されている。
論文 参考訳(メタデータ) (2020-06-17T01:23:00Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。