論文の概要: Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks
- arxiv url: http://arxiv.org/abs/2510.21252v1
- Date: Fri, 24 Oct 2025 08:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.414732
- Title: Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks
- Title(参考訳): 複数のディープラーニングフレームワークにおけるリカレントニューラルネットワークの統一実装
- Authors: Francesco Martinuzzi,
- Abstract要約: torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
- 参考スコア(独自算出の注目度): 0.5187177298223502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent neural networks (RNNs) are a cornerstone of sequence modeling across various scientific and industrial applications. Owing to their versatility, numerous RNN variants have been proposed over the past decade, aiming to improve the modeling of long-term dependencies and to address challenges such as vanishing and exploding gradients. However, no central library is available to test these variations, and reimplementing diverse architectures can be time-consuming and error-prone, limiting reproducibility and exploration. Here, we introduce three open-source libraries in Julia and Python that centralize numerous recurrent cell implementations and higher-level recurrent architectures. torchrecurrent, RecurrentLayers.jl, and LuxRecurrentLayers.jl offer a consistent framework for constructing and extending RNN models, providing built-in mechanisms for customization and experimentation. All packages are available under the MIT license and actively maintained on GitHub.
- Abstract(参考訳): リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、様々な科学的、産業的応用におけるシーケンスモデリングの基礎である。
その汎用性のために、長期依存関係のモデリングを改善し、消滅や爆発的な勾配といった課題に対処することを目的として、過去10年間に多くのRNN変種が提案されてきた。
しかしながら、これらのバリエーションをテストするための中央ライブラリは存在せず、多様なアーキテクチャを再実装することは、時間がかかり、エラーが発生し、再現性と探索が制限される可能性がある。
ここでは,ユリアとPythonの3つのオープンソースライブラリを紹介し,多数のリカレントセル実装と高レベルのリカレントアーキテクチャを集中化する。
torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供し、カスタマイズと実験のための組み込みメカニズムを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
関連論文リスト
- An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - cito: An R package for training neural networks using torch [0.0]
citoは、ディープラーニング(DL)アプリケーションのためのユーザフレンドリーなRパッケージである。
多くのRパッケージで使われている慣れ親しんだ式構文でDNNを指定することができる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
論文 参考訳(メタデータ) (2023-03-16T18:54:20Z) - Seasonal Encoder-Decoder Architecture for Forecasting [1.9188864062289432]
本稿では,季節相関をインテリジェントに捉えた新しいRNNアーキテクチャを提案する。
それはよく知られたエンコーダ・デコーダ(ED)アーキテクチャと乗法的季節自動回帰モデルから動機付けられている。
単一または複数のシーケンスデータに使用できる。
論文 参考訳(メタデータ) (2022-07-08T20:06:45Z) - Deep Neural Networks pruning via the Structured Perspective
Regularization [5.061851539114448]
機械学習では、ニューラルネットワーク(ANN)は非常に強力なツールであり、多くのアプリケーションで広く使われている。
ANN(リンク、ノード、チャネル、ldots)のすべての要素と対応する重みが削除される。
問題の性質は本質的に(プルーンの要素とそうでない要素)であるので,オペレーショナルリサーチツールに基づく新たなプルーニング手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T14:58:51Z) - TyXe: Pyro-based Bayesian neural nets for Pytorch [12.343312954353639]
我々はPytorchとPyro上に構築されたベイズニューラルネットワークライブラリTyXeを紹介する。
私たちの主要な設計原則は、アーキテクチャ、事前、推論、そして可能性仕様をきれいに分離することです。
既存のパッケージとは対照的に、TyXeはいかなるレイヤクラスも実装せず、代わりに一般的なPytorchコードで定義されたアーキテクチャに依存している。
論文 参考訳(メタデータ) (2021-10-01T09:04:26Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。