論文の概要: $\texttt{lrnnx}$: A library for Linear RNNs
- arxiv url: http://arxiv.org/abs/2602.08810v1
- Date: Mon, 09 Feb 2026 15:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.333741
- Title: $\texttt{lrnnx}$: A library for Linear RNNs
- Title(参考訳): $\texttt{lrnnx}$: 線形RNNのためのライブラリ
- Authors: Karan Bania, Soham Kalburgi, Manit Tanwar, Dhruthi, Aditya Nagarsekar, Harshvardhan Mestha, Naman Chibber, Raj Deshmukh, Anish Sathyanarayanan, Aarush Rathore, Pratham Chheda,
- Abstract要約: リニアリカレントニューラルネットワーク(LRNN)は、古典線形力学系と現代のディープラーニングをブリッジするシーケンスモデリングに構造化されたアプローチを提供し、表現力と安定性と訓練性に関する理論的保証を提供する。
既存の実装はさまざまなソフトウェアフレームワークで断片化されており、しばしばフレームワーク固有の最適化に依存している。
我々は,共通インタフェース下で複数の現代的なLRNNアーキテクチャを実装した統合ソフトウェアライブラリである$textttlrn$を紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Linear recurrent neural networks (LRNNs) provide a structured approach to sequence modeling that bridges classical linear dynamical systems and modern deep learning, offering both expressive power and theoretical guarantees on stability and trainability. In recent years, multiple LRNN-based architectures have been proposed, each introducing distinct parameterizations, discretization schemes, and implementation constraints. However, existing implementations are fragmented across different software frameworks, often rely on framework-specific optimizations, and in some cases require custom CUDA kernels or lack publicly available code altogether. As a result, using, comparing, or extending LRNNs requires substantial implementation effort. To address this, we introduce $\texttt{lrnnx}$, a unified software library that implements several modern LRNN architectures under a common interface. The library exposes multiple levels of control, allowing users to work directly with core components or higher-level model abstractions. $\texttt{lrnnx}$ aims to improve accessibility, reproducibility, and extensibility of LRNN research and applications. We make our code available under a permissive MIT license.
- Abstract(参考訳): リニアリカレントニューラルネットワーク(LRNN)は、古典線形力学系と現代のディープラーニングをブリッジするシーケンスモデリングに構造化されたアプローチを提供し、表現力と安定性と訓練性に関する理論的保証を提供する。
近年、複数のLRNNベースのアーキテクチャが提案され、それぞれ異なるパラメータ化、離散化スキーム、実装制約が紹介されている。
しかし、既存の実装は様々なソフトウェアフレームワークにまたがって断片化されており、しばしばフレームワーク固有の最適化に依存している。
その結果、LRNNの使用、比較、拡張には相当な労力を要する。
これを解決するために、共通インタフェースの下で複数の現代的なLRNNアーキテクチャを実装する統一ソフトウェアライブラリである$\texttt{lrnnx}$を紹介した。
ライブラリは複数のレベルのコントロールを公開しており、ユーザーはコアコンポーネントや高レベルのモデル抽象化を直接操作できる。
$\texttt{lrnnx}$はLRNNの研究とアプリケーションのアクセシビリティ、再現性、拡張性を改善することを目的としている。
当社のコードは、寛容なMITライセンスの下で利用可能です。
関連論文リスト
- Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks [0.5187177298223502]
torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
論文 参考訳(メタデータ) (2025-10-24T08:35:33Z) - LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding [55.5535016040221]
LM-Searcherは、クロスドメインニューラルネットワーク最適化のための新しいフレームワークである。
我々のアプローチの中心は、ニューラルネットワークのための普遍的な数値文字列表現であるNCodeである。
我々のデータセットは、幅広いアーキテクチャとパフォーマンスのペアを含み、堅牢で伝達可能な学習を促進する。
論文 参考訳(メタデータ) (2025-09-06T09:26:39Z) - A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications [4.681322438383984]
本稿では,DNN証明書のニューロンレベル仕様をテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析によって実現されている。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
論文 参考訳(メタデータ) (2025-07-26T20:38:29Z) - FlashRNN: I/O-Aware Optimization of Traditional RNNs on modern hardware [6.749483762719583]
状態追跡機能は、時系列タスクと論理的推論にとって重要である。
LSTMやGRUのような従来のRNNは、厳密にシーケンシャルな処理を犠牲にしてこれらの機能を備えている。
我々は、Tritonのハードウェア最適化FlashRNNと、レジスタレベルに最適化されたカーネルで、これらのネットワークがどれだけ高速になるかを示す。
論文 参考訳(メタデータ) (2024-12-10T18:50:37Z) - Advancing Regular Language Reasoning in Linear Recurrent Neural Networks [56.11830645258106]
本稿では,リニアリカレントニューラルネットワーク(LRNN)がトレーニングシーケンスに隠された規則を学習できるかを検討する。
ブロック対角および入力依存遷移行列を備えた新しいLRNNを提案する。
実験結果から,提案モデルが正規言語タスクに対して長さ外挿を行うことができる唯一のLRNNであることが示唆された。
論文 参考訳(メタデータ) (2023-09-14T03:36:01Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。