論文の概要: Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks
- arxiv url: http://arxiv.org/abs/2510.21252v1
- Date: Fri, 24 Oct 2025 08:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.414732
- Title: Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks
- Title(参考訳): 複数のディープラーニングフレームワークにおけるリカレントニューラルネットワークの統一実装
- Authors: Francesco Martinuzzi,
- Abstract要約: torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
- 参考スコア(独自算出の注目度): 0.5187177298223502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent neural networks (RNNs) are a cornerstone of sequence modeling across various scientific and industrial applications. Owing to their versatility, numerous RNN variants have been proposed over the past decade, aiming to improve the modeling of long-term dependencies and to address challenges such as vanishing and exploding gradients. However, no central library is available to test these variations, and reimplementing diverse architectures can be time-consuming and error-prone, limiting reproducibility and exploration. Here, we introduce three open-source libraries in Julia and Python that centralize numerous recurrent cell implementations and higher-level recurrent architectures. torchrecurrent, RecurrentLayers.jl, and LuxRecurrentLayers.jl offer a consistent framework for constructing and extending RNN models, providing built-in mechanisms for customization and experimentation. All packages are available under the MIT license and actively maintained on GitHub.
- Abstract(参考訳): リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、様々な科学的、産業的応用におけるシーケンスモデリングの基礎である。
その汎用性のために、長期依存関係のモデリングを改善し、消滅や爆発的な勾配といった課題に対処することを目的として、過去10年間に多くのRNN変種が提案されてきた。
しかしながら、これらのバリエーションをテストするための中央ライブラリは存在せず、多様なアーキテクチャを再実装することは、時間がかかり、エラーが発生し、再現性と探索が制限される可能性がある。
ここでは,ユリアとPythonの3つのオープンソースライブラリを紹介し,多数のリカレントセル実装と高レベルのリカレントアーキテクチャを集中化する。
torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供し、カスタマイズと実験のための組み込みメカニズムを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
関連論文リスト
- $\ exttt{lrnnx}$: A library for Linear RNNs [0.0]
リニアリカレントニューラルネットワーク(LRNN)は、古典線形力学系と現代のディープラーニングをブリッジするシーケンスモデリングに構造化されたアプローチを提供し、表現力と安定性と訓練性に関する理論的保証を提供する。
既存の実装はさまざまなソフトウェアフレームワークで断片化されており、しばしばフレームワーク固有の最適化に依存している。
我々は,共通インタフェース下で複数の現代的なLRNNアーキテクチャを実装した統合ソフトウェアライブラリである$textttlrn$を紹介した。
論文 参考訳(メタデータ) (2026-02-09T15:48:48Z) - A Retrieval-Augmented Generation Approach to Extracting Algorithmic Logic from Neural Networks [48.83701310501069]
NN-RAGは,大規模で異種なPyTorchを検証済みニューラルネットワークの検索可能なライブラリに変換する検索拡張生成システムである。
19のリポジトリに適用して、パイプラインは1,289の候補ブロックを抽出し、991(73.0%)を検証し、80%以上が構造的にユニークであることを実証した。
論文 参考訳(メタデータ) (2025-12-03T23:28:30Z) - An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - TorchDEQ: A Library for Deep Equilibrium Models [72.65236284030894]
TorchDEQは、最小限のコードとベストプラクティスで複数のドメイン上でDEQを定義し、トレーニングし、推論することを可能にする、アウト・オブ・ザ・ボックスのライブラリです。
私たちは、異なるドメインにまたがる6つの暗黙のモデルをサポートするDEQ Zoo'を構築します。
DEQ Zooの6つのプロジェクトすべてにまたがる10のデータセット上でのDECのパフォーマンス、トレーニングの安定性、効率を大幅に改善しました。
論文 参考訳(メタデータ) (2023-10-28T06:16:10Z) - cito: An R package for training neural networks using torch [0.0]
citoは、ディープラーニング(DL)アプリケーションのためのユーザフレンドリーなRパッケージである。
多くのRパッケージで使われている慣れ親しんだ式構文でDNNを指定することができる。
「シトー」には、モデルプロットと分析のための多くのユーザフレンドリーな機能が含まれている。
論文 参考訳(メタデータ) (2023-03-16T18:54:20Z) - Seasonal Encoder-Decoder Architecture for Forecasting [1.9188864062289432]
本稿では,季節相関をインテリジェントに捉えた新しいRNNアーキテクチャを提案する。
それはよく知られたエンコーダ・デコーダ(ED)アーキテクチャと乗法的季節自動回帰モデルから動機付けられている。
単一または複数のシーケンスデータに使用できる。
論文 参考訳(メタデータ) (2022-07-08T20:06:45Z) - Deep Neural Networks pruning via the Structured Perspective
Regularization [5.061851539114448]
機械学習では、ニューラルネットワーク(ANN)は非常に強力なツールであり、多くのアプリケーションで広く使われている。
ANN(リンク、ノード、チャネル、ldots)のすべての要素と対応する重みが削除される。
問題の性質は本質的に(プルーンの要素とそうでない要素)であるので,オペレーショナルリサーチツールに基づく新たなプルーニング手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T14:58:51Z) - TyXe: Pyro-based Bayesian neural nets for Pytorch [12.343312954353639]
我々はPytorchとPyro上に構築されたベイズニューラルネットワークライブラリTyXeを紹介する。
私たちの主要な設計原則は、アーキテクチャ、事前、推論、そして可能性仕様をきれいに分離することです。
既存のパッケージとは対照的に、TyXeはいかなるレイヤクラスも実装せず、代わりに一般的なPytorchコードで定義されたアーキテクチャに依存している。
論文 参考訳(メタデータ) (2021-10-01T09:04:26Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。