論文の概要: cito: An R package for training neural networks using torch
- arxiv url: http://arxiv.org/abs/2303.09599v2
- Date: Sun, 8 Oct 2023 11:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 14:17:25.181746
- Title: cito: An R package for training neural networks using torch
- Title(参考訳): cito:torchを使用したニューラルネットワークトレーニング用rパッケージ
- Authors: Christian Amesoeder, Florian Hartig, Maximilian Pichler
- Abstract要約: cito"は、ディープラーニングのためのユーザフレンドリーなRパッケージで、Rパッケージで慣れ親しんだ公式でディープニューラルネットワークを指定できる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
総合Rアーカイブネットワーク(CRAN)から「シトー」の安定版をインストールすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNN) have become a central method for regression and
classification tasks. Some packages exist that allow to fit DNN directly in R,
but those are rather limited in their functionality. Most current deep learning
applications rely on one of the major deep learning frameworks, in particular
PyTorch or TensorFlow, to build and train DNNs. Using these frameworks,
however, requires substantially more training and time than typical regression
or machine learning functions in the R environment. Here, we present 'cito', a
user-friendly R package for deep learning that allows to specify deep neural
networks in the familiar formula syntax used in many R packages. To fit the
models, 'cito' uses 'torch', taking advantage of the numerically optimized
torch library, including the ability to switch between training models on CPUs
or GPUs. Moreover, 'cito' includes many user-friendly functions for model
plotting and analysis, including optional confidence intervals (CIs) based on
bootstraps on predictions as well as explainable AI (xAI) metrics for effect
sizes and variable importance with CIs and p-values. To showcase a typical
analysis pipeline using 'cito', including its built-in xAI features to explore
the trained DNN, we build a species distribution model of the African elephant.
We hope that by providing a user-friendly R framework to specify, deploy and
interpret deep neural networks, 'cito' will make this interesting model class
more accessible to ecological data analysis. A stable version of 'cito' can be
installed from the comprehensive R archive network (CRAN).
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は回帰および分類タスクの中心的な手法となっている。
いくつかのパッケージはDNNを直接Rに適合させることができるが、機能的には限られている。
現在のディープラーニングアプリケーションは、DNNの構築とトレーニングには、特にPyTorchやTensorFlowといった主要なディープラーニングフレームワークの1つに依存している。
しかし、これらのフレームワークを使用するには、R環境における典型的な回帰や機械学習機能よりも、かなり多くのトレーニングと時間が必要です。
深層学習のためのユーザフレンドリなRパッケージである 'cito' では、多くのRパッケージで使われている親しみやすい公式構文でディープニューラルネットワークを指定できる。
モデルに合うように、'cito'は'torch'を使用し、数値的に最適化されたトーチライブラリを活用し、CPUやGPUのトレーニングモデルを切り替える機能を含む。
さらに、"cito"にはモデルプロットと分析のための多くのユーザフレンドリな機能が含まれており、予測のブートストラップに基づいたオプションの信頼区間(CI)や、効果のサイズやCIやp値による変数の重要度に関する説明可能なAI(xAI)メトリクスが含まれている。
訓練されたDNNを探索するために組み込まれたxAI機能を含む「シトー」を用いた典型的な分析パイプラインを紹介するため、アフリカゾウの種分布モデルを構築した。
私たちは、ディープニューラルネットワークを指定、デプロイ、解釈するためのユーザフレンドリなRフレームワークを提供することで、この興味深いモデルクラスがエコロジーデータ分析によりアクセスしやすくなることを期待しています。
安定したバージョンのcitoは、総合Rアーカイブネットワーク(CRAN)からインストールすることができる。
関連論文リスト
- Simulation-based inference with the Python Package sbijax [0.7499722271664147]
sbijaxは、ニューラルネットワークベースの推論に様々な最先端のメソッドを実装するPythonパッケージである。
このパッケージはベイズ近似計算の機能を提供し、モデル診断を計算し、自動的に要約統計を推定する。
論文 参考訳(メタデータ) (2024-09-28T18:47:13Z) - A Model-based GNN for Learning Precoding [37.060397377445504]
ニューラルネットワークによる事前コーディングポリシの学習は、低複雑性のオンライン実装、チャネル障害に対する堅牢性、チャネル取得との併用最適化を可能にする。
既存のニューラルネットワークは、マルチユーザ干渉を緩和するためのプリコーディングの最適化を学ぶために使用されると、トレーニングの複雑さと一般化能力の低下に悩まされる。
数理モデルとポリシの特性を両立させることにより,プリコーディングポリシを学習するためのグラフニューラルネットワーク(GNN)を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:40:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - PyRCN: Exploration and Application of ESNs [0.0]
エコー状態ネットワーク(ESN)は時間的タスクを解くことができるが、線形回帰に基づくトレーニングパラダイムは極めて容易である。
本稿では,理論と実践におけるESNの理解を促進することを目的とする。
本稿では,任意の大規模データセット上でのESNの開発,トレーニング,解析を行うためのPythonツールボックスであるPyRCNを紹介する。
論文 参考訳(メタデータ) (2021-03-08T15:00:48Z) - FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input
Spaces [0.0]
関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のパッケージである。
本稿では,モデルの構築や予測,クロスバリデーションの実行を容易にする機能を紹介する。
論文 参考訳(メタデータ) (2020-09-18T22:32:29Z) - A Fortran-Keras Deep Learning Bridge for Scientific Computing [6.768544973019004]
ソフトウェアライブラリであるFortran-Keras Bridge(FKB)を導入する。
本稿は、FKBが提供するいくつかのユニークな機能、例えば、カスタマイズ可能なレイヤ、損失関数、ネットワークアンサンブルについて述べる。
本稿は,地球規模の気候シミュレーションに対する実験的アプローチの堅牢性に関するオープンな疑問にFKBを適用したケーススタディで締めくくっている。
論文 参考訳(メタデータ) (2020-04-14T15:10:09Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。