論文の概要: torch-sla: Differentiable Sparse Linear Algebra with Adjoint Solvers and Sparse Tensor Parallelism for PyTorch
- arxiv url: http://arxiv.org/abs/2601.13994v1
- Date: Tue, 20 Jan 2026 14:06:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.34305
- Title: torch-sla: Differentiable Sparse Linear Algebra with Adjoint Solvers and Sparse Tensor Parallelism for PyTorch
- Title(参考訳): Torch-sla: PyTorch における随伴ソルバーとスパーステンソル並列性を持つ可微分スパース線形代数
- Authors: Mingyuan Chi,
- Abstract要約: オープンソースのPyTorchライブラリであるTorchslaは、GPUを加速し、スケーラブルで、微分可能なスパース線形代数を可能にする。
torchslaは複数のバックエンド(SciPy、cuDSS、PyTorch-native)をサポートし、エンドツーエンドの微分可能なシミュレーションのためにPyTorch Autogradとシームレスに統合される。
- 参考スコア(独自算出の注目度): 0.2960141730774496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial scientific computing predominantly uses sparse matrices to represent unstructured data -- finite element meshes, graphs, point clouds. We present \torchsla{}, an open-source PyTorch library that enables GPU-accelerated, scalable, and differentiable sparse linear algebra. The library addresses three fundamental challenges: (1) GPU acceleration for sparse linear solves, nonlinear solves (Newton, Picard, Anderson), and eigenvalue computation; (2) Multi-GPU scaling via domain decomposition with halo exchange, reaching \textbf{400 million DOF linear solve on 3 GPUs}; and (3) Adjoint-based differentiation} achieving $\mathcal{O}(1)$ computational graph nodes (for autograd) and $\mathcal{O}(\text{nnz})$ memory -- independent of solver iterations. \torchsla{} supports multiple backends (SciPy, cuDSS, PyTorch-native) and seamlessly integrates with PyTorch autograd for end-to-end differentiable simulations. Code is available at https://github.com/walkerchi/torch-sla.
- Abstract(参考訳): 産業科学計算は主に、有限要素メッシュ、グラフ、点雲といった非構造化データを表現するためにスパース行列を使用する。
オープンソースのPyTorchライブラリである \torchsla{} について述べる。
1)疎線形解に対するGPU加速度、(Newton, Picard, Anderson)非線形解(Newton, Picard, Anderson)固有値計算、(2)ハロー交換によるドメイン分解によるマルチGPUスケーリング、3つのGPU上で \textbf{400M DOF 線形解に到達 (3) 共役型微分が$\mathcal{O}(1)$計算グラフノード(オートグレード)と$\mathcal{O}(\text{nnz})$メモリ -- の3つの基本的な課題に対処する。
\torchsla{}は複数のバックエンド(SciPy、cuDSS、PyTorch-native)をサポートし、エンドツーエンドの微分可能なシミュレーションのためにPyTorch Autogradとシームレスに統合される。
コードはhttps://github.com/walkerchi/torch-sla.comから入手できる。
関連論文リスト
- scipy.spatial.transform: Differentiable Framework-Agnostic 3D Transformations in Python [49.015684860172975]
三次元剛体変換、すなわち回転と変換は、現代の微分可能な機械学習パイプラインの中心である。
SciPyのspace$.$diffモジュールは、厳格にテストされたPython実装である。
我々はSciPyの空間$.$transform機能を完全にオーバーホールし、Python配列APIを実装する任意の配列ライブラリと互換性を持たせる。
論文 参考訳(メタデータ) (2025-11-22T18:52:34Z) - Scalable GPU-Accelerated Euler Characteristic Curves: Optimization and Differentiable Learning for PyTorch [0.0]
我々は,Euler Characteristics Curve(ECC)向けに最適化されたGPUカーネルを提案し,合成グリッド上でのGPU実装よりも16-2000"Oの高速化を実現した。
エンドツーエンドの学習を可能にする差別化可能なPyTorch層を導入する。
論文 参考訳(メタデータ) (2025-10-23T06:59:07Z) - iSpLib: A Library for Accelerating Graph Neural Networks using Auto-tuned Sparse Operations [1.3030767447016454]
iSpLibは、自動調整されたスパース操作を備えたPyTorchベースのC++ライブラリである。
iSpLibは、CPU上のPyTorch 2.1.0とPyTorch Geometric 2.4.0と同等のPyTorch 2.1.0と比較して、最大27倍のトレーニングスピードアップが得られることを示した。
論文 参考訳(メタデータ) (2024-03-21T21:56:44Z) - tntorch: Tensor Network Learning with PyTorch [26.544996974928583]
tntorchは、複数の分解をサポートするテンソル学習フレームワークである。
微分可能なテンソル代数、ランクトランケーション、クロス近似、バッチ処理、包括的なテンソル算術などを実装している。
論文 参考訳(メタデータ) (2022-06-22T14:19:15Z) - Optimal Gradient Sliding and its Application to Distributed Optimization
Under Similarity [121.83085611327654]
積 $r:=p + q$, ここで$r$は$mu$-strong convex類似性である。
エージェントの通信やローカルコールにマスターされた問題を解決する方法を提案する。
提案手法は$mathcalO(sqrtL_q/mu)$法よりもはるかにシャープである。
論文 参考訳(メタデータ) (2022-05-30T14:28:02Z) - Accelerated Gradient Tracking over Time-varying Graphs for Decentralized Optimization [59.65871549878937]
実用的な単一ループ加速勾配追跡には$O(fracgamma1-sigma_gamma)2sqrtfracLepsilon)$が必要であることを証明している。
我々の収束率は$O(frac1epsilon5/7)$と$O(fracLmu)5/7frac1(1-sigma)1.5logfrac1epsilon)$よりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-06T15:34:14Z) - Learning Sparse Graph Laplacian with K Eigenvector Prior via Iterative
GLASSO and Projection [58.5350491065936]
グラフ Laplacian 行列 $L$ 上の構造的仮定を考える。
最初の$K$ eigenvectors of $L$は、例えばドメイン固有の基準に基づいて事前選択される。
本稿では,H_u+$$$$barC$で最も適切なグラフラプラシアン行列$L*を計算するために,効率的なハイブリッドグラフラッソ/投影アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-25T18:12:50Z) - Hybrid Models for Learning to Branch [81.93868699246214]
我々はCPUマシン上で効率的な分岐を行うための新しいハイブリッドアーキテクチャを提案する。
提案アーキテクチャは,GNNの表現力と分岐処理のための計算コストの低い多層パーセプトロン(MLP)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-26T21:03:45Z) - Kernel Operations on the GPU, with Autodiff, without Memory Overflows [5.669790037378094]
KeOpsライブラリは、数学的公式によってエントリが与えられるテンソルに対して、高速でメモリ効率のよいGPUサポートを提供する。
KeOpsは、カーネルおよび幾何学的アプリケーションのためのテンソル中心ライブラリの大きなボトルネックであるメモリ消費を緩和する。
KeOpsは、最適化されたC++/CUDAスキームと、Python(NumpyとPyTorch)、Matlab、Rのバインダーを組み合わせる。
論文 参考訳(メタデータ) (2020-03-27T08:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。