論文の概要: tntorch: Tensor Network Learning with PyTorch
- arxiv url: http://arxiv.org/abs/2206.11128v1
- Date: Wed, 22 Jun 2022 14:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 20:03:53.868515
- Title: tntorch: Tensor Network Learning with PyTorch
- Title(参考訳): tntorch: PyTorchによるテンソルネットワーク学習
- Authors: Mikhail Usvyatsov, Rafael Ballester-Ripoll, Konrad Schindler
- Abstract要約: tntorchは、複数の分解をサポートするテンソル学習フレームワークである。
微分可能なテンソル代数、ランクトランケーション、クロス近似、バッチ処理、包括的なテンソル算術などを実装している。
- 参考スコア(独自算出の注目度): 26.544996974928583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present tntorch, a tensor learning framework that supports multiple
decompositions (including Candecomp/Parafac, Tucker, and Tensor Train) under a
unified interface. With our library, the user can learn and handle low-rank
tensors with automatic differentiation, seamless GPU support, and the
convenience of PyTorch's API. Besides decomposition algorithms, tntorch
implements differentiable tensor algebra, rank truncation, cross-approximation,
batch processing, comprehensive tensor arithmetics, and more.
- Abstract(参考訳): 我々は,複数の分解(candecomp/parafac,tucker,tensor trainを含む)を統一インターフェース下でサポートするテンソル学習フレームワークtntorchを提案する。
私たちのライブラリでは、自動微分、シームレスなGPUサポート、PyTorchのAPIの利便性を備えた低ランクテンソルを学習し、処理することができます。
分解アルゴリズムに加えて、tntorchは微分可能なテンソル代数、ランク切り算、交差近似、バッチ処理、包括的テンソル算術などを実装している。
関連論文リスト
- Scorch: A Library for Sparse Deep Learning [41.62614683452247]
我々は,効率的なスパーステンソル計算をPyTorchエコシステムにシームレスに統合するライブラリであるScorchを紹介する。
Scorcherはスパーステンソルのためのフレキシブルで直感的なインターフェースを提供し、多様なスパースデータ構造をサポートする。
複数のドメインにわたる多様なディープラーニングモデルにおいて、Scorchの使いやすさとパフォーマンス向上を実証する。
論文 参考訳(メタデータ) (2024-05-27T06:59:20Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Symbolically integrating tensor networks over various random tensors by
the second version of Python RTNI [0.5439020425818999]
我々は、Haar分散ユニタリ行列上のテンソルネットワークを象徴的に統合するRTNIのPythonバージョンをアップグレードしている。
現在、PyRTNI2 はハール分布行列と実かつ複素正規ガウステンソルも扱うことができる。
本稿では,プログラムの背後にある数学を説明し,それを用いてどのようなテンソルネットワーク計算を行うことができるかを示す。
論文 参考訳(メタデータ) (2023-09-03T13:14:46Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - PyTorchVideo: A Deep Learning Library for Video Understanding [71.89124881732015]
PyTorchVideoは、ビデオ理解タスクのためのオープンソースのディープラーニングライブラリである。
マルチモーダルデータローディング、変換、モデルを含む、ビデオ理解ツールのフルスタックをカバーする。
ライブラリはPyTorchをベースにしており、任意のトレーニングフレームワークで使用することができる。
論文 参考訳(メタデータ) (2021-11-18T18:59:58Z) - The CoRa Tensor Compiler: Compilation for Ragged Tensors with Minimal
Padding [14.635810503599759]
CoRaはテンソルコンパイラで、ユーザはタグ付きテンソル演算子の効率的なコードを簡単に生成できる。
我々は,ラッジテンソル上での各種演算子およびトランスモデルのエンコーダ層上でのCoRaの評価を行った。
論文 参考訳(メタデータ) (2021-10-19T19:39:04Z) - DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning [79.89085533866071]
本稿では,スパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceはテンソルを2つの集合、値とインデックスに分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
大規模実モデルを用いた実験により,DeepReduceはデータ転送を少なくし,既存の手法よりも計算オーバーヘッドを小さくすることを示した。
論文 参考訳(メタデータ) (2021-02-05T11:31:24Z) - Beyond Lazy Training for Over-parameterized Tensor Decomposition [69.4699995828506]
過度なパラメータ化対象の勾配勾配は遅延学習体制を超え、データ中の特定の低ランク構造を利用する可能性があることを示す。
以上の結果から,過パラメータ化対象の勾配勾配は遅延学習体制を超え,データ中の特定の低ランク構造を利用する可能性が示唆された。
論文 参考訳(メタデータ) (2020-10-22T00:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。