論文の概要: OpenReservoirComputing: GPU-Accelerated Reservoir Computing in JAX
- arxiv url: http://arxiv.org/abs/2603.14802v1
- Date: Mon, 16 Mar 2026 03:59:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.042627
- Title: OpenReservoirComputing: GPU-Accelerated Reservoir Computing in JAX
- Title(参考訳): OpenReservoirComputing: JAXでのGPUアクセラレーションされたReservoirコンピューティング
- Authors: Jan Williams, Dima Tretiak, Steven L. Brunton, J. Nathan Kutz, Krithika Manohar,
- Abstract要約: OpenReservoirComputing (ORC)は、JAXで書かれた貯水池コンピューティング(RC)のためのPythonライブラリである。
JAXは高性能な数値計算のためのPythonライブラリである。
ORCはGPUアクセラレーション、JITコンパイル、自動ベクトル化を提供する。
- 参考スコア(独自算出の注目度): 3.6137862091320936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: OpenReservoirComputing (ORC) is a Python library for reservoir computing (RC) written in JAX (Bradbury et al. 2018) and Equinox (Kidger and Garcia 2021). JAX is a Python library for high-performance numerical computing that enables automatic differentiation, just-in-time (JIT) compilation, and GPU/TPU acceleration, while Equinox is a neural network framework for JAX. RC is a form of machine learning that functions by lifting a low-dimensional sequence or signal into a high-dimensional dynamical system and training a simple, linear readout layer from the high-dimensional dynamics back to a lower-dimensional quantity of interest. The most common application of RC is time-series forecasting, where the goal is to predict a signal's future evolution. RC has achieved state-of-the-art performance on this task, particularly when applied to chaotic dynamical systems. In addition, RC approaches can be adapted to perform classification and control tasks. ORC provides both modular components for building custom RC models and built-in models for forecasting, classification, and control. By building on JAX and Equinox, ORC offers GPU acceleration, JIT compilation, and automatic vectorization. These capabilities make prototyping new models faster and enable larger and more powerful reservoir architectures. End-to-end differentiability also enables seamless integration with other deep learning models built with Equinox.
- Abstract(参考訳): OpenReservoirComputing (ORC)は、JAX (Bradbury et al 2018) と Equinox (Kidger and Garcia 2021) で書かれた、貯水池コンピューティングのためのPythonライブラリである。
JAXは、自動微分、ジャスト・イン・タイム(JIT)コンパイル、GPU/TPUアクセラレーションを可能にする高性能な数値計算のためのPythonライブラリであり、Equinoxは、JAXのためのニューラルネットワークフレームワークである。
RCは、低次元のシーケンスや信号を高次元の力学系に持ち上げ、高次元の力学から低次元の関心量への単純な線形読み出し層を訓練することで機能する機械学習の一形態である。
RCの最も一般的な応用は時系列予測であり、信号の将来的な進化を予測することである。
RCはこのタスク、特にカオス力学系に適用された場合、最先端の性能を達成した。
さらに、RCアプローチは分類および制御タスクに適応することができる。
ORCはカスタムRCモデルを構築するためのモジュールコンポーネントと、予測、分類、制御のためのビルトインモデルの両方を提供する。
JAXとEquinox上に構築することで、ORCはGPUアクセラレーション、JITコンパイル、自動ベクタライゼーションを提供する。
これらの機能は、新しいモデルをより高速にプロトタイピングし、より大きくより強力な貯水池アーキテクチャを可能にする。
エンドツーエンドの差別化は、Equinoxで構築された他のディープラーニングモデルとシームレスに統合することを可能にする。
関連論文リスト
- A Lightweight Library for Energy-Based Joint-Embedding Predictive Architectures [58.26804959656713]
JEPA(Joint-Embedding Predictive Architectures)を用いた表現と世界モデルを学習するためのオープンソースのライブラリであるEB-JEPAを提案する。
JEPAsは、ピクセル空間ではなく表現空間で予測することを学び、生成モデリングの落とし穴を避ける。
これらの表現がどのように行動条件付き世界モデルを駆動し、Two Roomsナビゲーションタスクで97%の計画成功率を達成するかを示す。
論文 参考訳(メタデータ) (2026-02-03T14:56:24Z) - AutoHete: An Automatic and Efficient Heterogeneous Training System for LLMs [68.99086112477565]
トランスフォーマーベースの大規模言語モデル(LLM)は、シーケンスモデリングやテキスト生成において例外的な機能を示した。
既存の異種トレーニング手法は、トレーニング可能なモデルの規模を大幅に拡大するが、かなりの通信オーバーヘッドとCPUワークロードを導入している。
本稿では,シングルGPU環境とマルチGPU環境の両方に互換性のある,自動的で効率的なヘテロジニアストレーニングシステムであるAutoHeteを提案する。
論文 参考訳(メタデータ) (2025-02-27T14:46:22Z) - Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - Scaling Tractable Probabilistic Circuits: A Systems Perspective [53.76194929291088]
PyJuiceは、いくつかの点で先行技術を改善するPCの一般的な実装設計である。
大規模PCのトレーニングでは、既存のシステムよりも1~2桁高速である。
PyJuiceは2~5倍のメモリを消費するので、より大きなモデルをトレーニングすることができます。
論文 参考訳(メタデータ) (2024-06-02T14:57:00Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - Detach-ROCKET: Sequential feature selection for time series classification with random convolutional kernels [0.7499722271664144]
ROCKETに基づくモデルにおいて, 逐次的特徴分離(Sequential Feature Detachment, SFD)を導入する。
SFDは、オリジナルの機能の10%しか使用せずに、より良いテスト精度でモデルを作成することができる。
また,特徴量とモデル精度の最適バランスを決定するためのエンドツーエンドの手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T20:24:36Z) - SynJax: Structured Probability Distributions for JAX [3.4447129363520337]
SynJaxは、構造化分布に対する推論アルゴリズムの効率的なベクトル化実装を提供する。
データの構造を明示的にモデル化する大規模な微分可能なモデルを構築することができます。
論文 参考訳(メタデータ) (2023-08-07T04:20:38Z) - RAF: Holistic Compilation for Deep Learning Model Training [17.956035630476173]
本稿では,学習のための深層学習コンパイラであるRAFについて述べる。
既存のDLCとは異なり、RAFはフォワードモデルを受け入れ、社内でトレーニンググラフを生成する。
RAFは、パフォーマンス、メモリ、分散トレーニングのためのグラフ最適化を体系的に統合することができる。
論文 参考訳(メタデータ) (2023-03-08T17:51:13Z) - RcTorch: a PyTorch Reservoir Computing Package with Automated
Hyper-Parameter Optimization [1.2891210250935146]
貯水池コンピュータ(Reservoir computer, RC)は、全てのニューラルネットワークにおいて最速の訓練である。
RCの採用は、モデルがハイパーパラメータに敏感であるために遅れている。
我々は、自動HPチューニングを備えたPyTorchベースのRCニューラルネットワークパッケージであるRcTorchを紹介する。
論文 参考訳(メタデータ) (2022-07-12T22:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。