論文の概要: cito: An R package for training neural networks using torch
- arxiv url: http://arxiv.org/abs/2303.09599v1
- Date: Thu, 16 Mar 2023 18:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:34:51.278676
- Title: cito: An R package for training neural networks using torch
- Title(参考訳): cito:torchを使用したニューラルネットワークトレーニング用rパッケージ
- Authors: Christian Amesoeder, Florian Hartig, Maximilian Pichler
- Abstract要約: ディープラーニングのためのユーザフレンドリーなRパッケージであるcitoを提示する。
citoは、RユーザーがRのほとんどのモデリング関数で使われるよく知られた公式でディープニューラルネットワークを指定することを可能にする。
citoには、予測のための多くのユーザフレンドリな機能と、適合したモデルのための説明可能な人工知能(xAI)パイプラインが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 1. Deep neural networks (DNN) have become a central class of algorithms for
regression and classification tasks. Although some packages exist that allow
users to specify DNN in R, those are rather limited in their functionality.
Most current deep learning applications therefore rely on one of the major deep
learning frameworks, PyTorch or TensorFlow, to build and train DNN. However,
using these frameworks requires substantially more training and time than
comparable regression or machine learning packages in the R environment.
2. Here, we present cito, an user-friendly R package for deep learning. cito
allows R users to specify deep neural networks in the familiar formula syntax
used by most modeling functions in R. In the background, cito uses torch to fit
the models, taking advantage of all the numerical optimizations of the torch
library, including the ability to switch between training models on CPUs or
GPUs. Moreover, cito includes many user-friendly functions for predictions and
an explainable Artificial Intelligence (xAI) pipeline for the fitted models.
3. We showcase a typical analysis pipeline using cito, including its built-in
xAI features to explore the trained DNN, by building a species distribution
model of the African elephant.
4. In conclusion, cito provides a user-friendly R framework to specify,
deploy and interpret deep neural networks based on torch. The current stable
CRAN version mainly supports fully connected DNNs, but it is planned that
future versions will also include CNNs and RNNs.
- Abstract(参考訳): 1. ディープニューラルネットワーク(DNN)は回帰・分類タスクのアルゴリズムの中心クラスとなっている。
ユーザがRでDNNを指定できるパッケージはいくつか存在するが、機能的には限られている。
したがって、現在のディープラーニングアプリケーションは、DNNを構築してトレーニングするために、PyTorchやTensorFlowといった主要なディープラーニングフレームワークの1つに依存している。
しかし、これらのフレームワークを使用するには、R環境における同等のレグレッションや機械学習パッケージよりも、かなり多くのトレーニングと時間が必要です。
2) 深層学習のためのユーザフレンドリーなRパッケージであるcitoについて紹介する。
背景では、citoはモデルに適合するためにtorchを使用しており、torchライブラリのすべての数値最適化を利用して、cpuやgpuのトレーニングモデル間の切り替えなどを行う。
さらに、citoには予測のための多くのユーザフレンドリーな機能と、適合したモデルのための説明可能な人工知能(xai)パイプラインが含まれている。
3) アフリカゾウの種分布モデルを構築し, 訓練されたDNNを探索するためのxAI機能を含む, カイトを用いた典型的な分析パイプラインを紹介する。
4. 結論として、citoはtorchに基づいたディープニューラルネットワークを指定、デプロイ、解釈するためのユーザフレンドリーなrフレームワークを提供する。
現在の安定したCRANバージョンは、主に完全に接続されたDNNをサポートするが、将来のバージョンにはCNNとRNNも含まれる予定である。
関連論文リスト
- Simulation-based inference with the Python Package sbijax [0.7499722271664147]
sbijaxは、ニューラルネットワークベースの推論に様々な最先端のメソッドを実装するPythonパッケージである。
このパッケージはベイズ近似計算の機能を提供し、モデル診断を計算し、自動的に要約統計を推定する。
論文 参考訳(メタデータ) (2024-09-28T18:47:13Z) - A Model-based GNN for Learning Precoding [37.060397377445504]
ニューラルネットワークによる事前コーディングポリシの学習は、低複雑性のオンライン実装、チャネル障害に対する堅牢性、チャネル取得との併用最適化を可能にする。
既存のニューラルネットワークは、マルチユーザ干渉を緩和するためのプリコーディングの最適化を学ぶために使用されると、トレーニングの複雑さと一般化能力の低下に悩まされる。
数理モデルとポリシの特性を両立させることにより,プリコーディングポリシを学習するためのグラフニューラルネットワーク(GNN)を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:40:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - PyRCN: Exploration and Application of ESNs [0.0]
エコー状態ネットワーク(ESN)は時間的タスクを解くことができるが、線形回帰に基づくトレーニングパラダイムは極めて容易である。
本稿では,理論と実践におけるESNの理解を促進することを目的とする。
本稿では,任意の大規模データセット上でのESNの開発,トレーニング,解析を行うためのPythonツールボックスであるPyRCNを紹介する。
論文 参考訳(メタデータ) (2021-03-08T15:00:48Z) - FuncNN: An R Package to Fit Deep Neural Networks Using Generalized Input
Spaces [0.0]
関数型ニューラルネットワーク(FuncNN)ライブラリは、あらゆるプログラミング言語で最初のパッケージである。
本稿では,モデルの構築や予測,クロスバリデーションの実行を容易にする機能を紹介する。
論文 参考訳(メタデータ) (2020-09-18T22:32:29Z) - A Fortran-Keras Deep Learning Bridge for Scientific Computing [6.768544973019004]
ソフトウェアライブラリであるFortran-Keras Bridge(FKB)を導入する。
本稿は、FKBが提供するいくつかのユニークな機能、例えば、カスタマイズ可能なレイヤ、損失関数、ネットワークアンサンブルについて述べる。
本稿は,地球規模の気候シミュレーションに対する実験的アプローチの堅牢性に関するオープンな疑問にFKBを適用したケーススタディで締めくくっている。
論文 参考訳(メタデータ) (2020-04-14T15:10:09Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。