論文の概要: $\texttt{lrnnx}$: A library for Linear RNNs
- arxiv url: http://arxiv.org/abs/2602.08810v1
- Date: Mon, 09 Feb 2026 15:48:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.333741
- Title: $\texttt{lrnnx}$: A library for Linear RNNs
- Title(参考訳): $\texttt{lrnnx}$: 線形RNNのためのライブラリ
- Authors: Karan Bania, Soham Kalburgi, Manit Tanwar, Dhruthi, Aditya Nagarsekar, Harshvardhan Mestha, Naman Chibber, Raj Deshmukh, Anish Sathyanarayanan, Aarush Rathore, Pratham Chheda,
- Abstract要約: リニアリカレントニューラルネットワーク(LRNN)は、古典線形力学系と現代のディープラーニングをブリッジするシーケンスモデリングに構造化されたアプローチを提供し、表現力と安定性と訓練性に関する理論的保証を提供する。
既存の実装はさまざまなソフトウェアフレームワークで断片化されており、しばしばフレームワーク固有の最適化に依存している。
我々は,共通インタフェース下で複数の現代的なLRNNアーキテクチャを実装した統合ソフトウェアライブラリである$textttlrn$を紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Linear recurrent neural networks (LRNNs) provide a structured approach to sequence modeling that bridges classical linear dynamical systems and modern deep learning, offering both expressive power and theoretical guarantees on stability and trainability. In recent years, multiple LRNN-based architectures have been proposed, each introducing distinct parameterizations, discretization schemes, and implementation constraints. However, existing implementations are fragmented across different software frameworks, often rely on framework-specific optimizations, and in some cases require custom CUDA kernels or lack publicly available code altogether. As a result, using, comparing, or extending LRNNs requires substantial implementation effort. To address this, we introduce $\texttt{lrnnx}$, a unified software library that implements several modern LRNN architectures under a common interface. The library exposes multiple levels of control, allowing users to work directly with core components or higher-level model abstractions. $\texttt{lrnnx}$ aims to improve accessibility, reproducibility, and extensibility of LRNN research and applications. We make our code available under a permissive MIT license.
- Abstract(参考訳): リニアリカレントニューラルネットワーク(LRNN)は、古典線形力学系と現代のディープラーニングをブリッジするシーケンスモデリングに構造化されたアプローチを提供し、表現力と安定性と訓練性に関する理論的保証を提供する。
近年、複数のLRNNベースのアーキテクチャが提案され、それぞれ異なるパラメータ化、離散化スキーム、実装制約が紹介されている。
しかし、既存の実装は様々なソフトウェアフレームワークにまたがって断片化されており、しばしばフレームワーク固有の最適化に依存している。
その結果、LRNNの使用、比較、拡張には相当な労力を要する。
これを解決するために、共通インタフェースの下で複数の現代的なLRNNアーキテクチャを実装する統一ソフトウェアライブラリである$\texttt{lrnnx}$を紹介した。
ライブラリは複数のレベルのコントロールを公開しており、ユーザーはコアコンポーネントや高レベルのモデル抽象化を直接操作できる。
$\texttt{lrnnx}$はLRNNの研究とアプリケーションのアクセシビリティ、再現性、拡張性を改善することを目的としている。
当社のコードは、寛容なMITライセンスの下で利用可能です。
関連論文リスト
- Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks [0.5187177298223502]
torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
論文 参考訳(メタデータ) (2025-10-24T08:35:33Z) - TDHook: A Lightweight Framework for Interpretability [0.0]
ディープニューラルネットワーク(DNN)の解釈可能性 (Interpretability of Deep Neural Networks, DNN) は、視覚と言語モデルの研究による成長分野である。
私たちは、$texttttensordict$をベースとしたオープンソースで軽量で汎用的な解釈可能性フレームワークであるTDHookを紹介します。
コンピュータビジョン、自然言語処理、強化学習、その他のドメインのためにトレーニングできる複雑な構成モデルを扱うことに焦点を当てている。
論文 参考訳(メタデータ) (2025-09-29T20:28:43Z) - LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding [55.5535016040221]
LM-Searcherは、クロスドメインニューラルネットワーク最適化のための新しいフレームワークである。
我々のアプローチの中心は、ニューラルネットワークのための普遍的な数値文字列表現であるNCodeである。
我々のデータセットは、幅広いアーキテクチャとパフォーマンスのペアを含み、堅牢で伝達可能な学習を促進する。
論文 参考訳(メタデータ) (2025-09-06T09:26:39Z) - VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use [78.29315418819074]
VerlToolは、体系的な設計原則を通じて制限に対処する統一的でモジュール化されたフレームワークです。
我々のフレームワークはARLTをマルチターントラジェクトリとして定式化し、マルチモード観測トークン(テキスト/画像/ビデオ)を単一ターンRLVRパラダイムを超えて拡張する。
モジュール化されたプラグインアーキテクチャは、軽量Python定義のみを必要とする迅速なツール統合を可能にする。
論文 参考訳(メタデータ) (2025-09-01T01:45:18Z) - A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications [4.681322438383984]
本稿では,DNN証明書のニューロンレベル仕様をテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析によって実現されている。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
論文 参考訳(メタデータ) (2025-07-26T20:38:29Z) - FlashRNN: I/O-Aware Optimization of Traditional RNNs on modern hardware [6.749483762719583]
状態追跡機能は、時系列タスクと論理的推論にとって重要である。
LSTMやGRUのような従来のRNNは、厳密にシーケンシャルな処理を犠牲にしてこれらの機能を備えている。
我々は、Tritonのハードウェア最適化FlashRNNと、レジスタレベルに最適化されたカーネルで、これらのネットワークがどれだけ高速になるかを示す。
論文 参考訳(メタデータ) (2024-12-10T18:50:37Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - Advancing Regular Language Reasoning in Linear Recurrent Neural Networks [56.11830645258106]
本稿では,リニアリカレントニューラルネットワーク(LRNN)がトレーニングシーケンスに隠された規則を学習できるかを検討する。
ブロック対角および入力依存遷移行列を備えた新しいLRNNを提案する。
実験結果から,提案モデルが正規言語タスクに対して長さ外挿を行うことができる唯一のLRNNであることが示唆された。
論文 参考訳(メタデータ) (2023-09-14T03:36:01Z) - PLiNIO: A User-Friendly Library of Gradient-based Methods for
Complexity-aware DNN Optimization [3.460496851517031]
PLiNIOは、最先端のDNN設計自動化技術を包括的に実装したオープンソースライブラリである。
PLiNIOは、ベースラインアーキテクチャと比較して最大94.34%のメモリ削減を実現し、1%の精度低下を実現している。
論文 参考訳(メタデータ) (2023-07-18T07:11:14Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。