論文の概要: Kernel Operations on the GPU, with Autodiff, without Memory Overflows
- arxiv url: http://arxiv.org/abs/2004.11127v2
- Date: Thu, 8 Apr 2021 12:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 05:19:58.473603
- Title: Kernel Operations on the GPU, with Autodiff, without Memory Overflows
- Title(参考訳): メモリオーバーフローのないAutodiffによるGPU上のカーネル操作
- Authors: Benjamin Charlier, Jean Feydy, Joan Alexis Glaun\`es,
Fran\c{c}ois-David Collin, Ghislain Durif
- Abstract要約: KeOpsライブラリは、数学的公式によってエントリが与えられるテンソルに対して、高速でメモリ効率のよいGPUサポートを提供する。
KeOpsは、カーネルおよび幾何学的アプリケーションのためのテンソル中心ライブラリの大きなボトルネックであるメモリ消費を緩和する。
KeOpsは、最適化されたC++/CUDAスキームと、Python(NumpyとPyTorch)、Matlab、Rのバインダーを組み合わせる。
- 参考スコア(独自算出の注目度): 5.669790037378094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The KeOps library provides a fast and memory-efficient GPU support for
tensors whose entries are given by a mathematical formula, such as kernel and
distance matrices. KeOps alleviates the major bottleneck of tensor-centric
libraries for kernel and geometric applications: memory consumption. It also
supports automatic differentiation and outperforms standard GPU baselines,
including PyTorch CUDA tensors or the Halide and TVM libraries. KeOps combines
optimized C++/CUDA schemes with binders for high-level languages: Python (Numpy
and PyTorch), Matlab and GNU R. As a result, high-level "quadratic" codes can
now scale up to large data sets with millions of samples processed in seconds.
KeOps brings graphics-like performances for kernel methods and is freely
available on standard repositories (PyPi, CRAN). To showcase its versatility,
we provide tutorials in a wide range of settings online at
\url{www.kernel-operations.io}.
- Abstract(参考訳): keopsライブラリは、カーネルや距離行列などの数式でエントリが与えられるテンソルに対して、高速でメモリ効率のよいgpuサポートを提供する。
keopsは、カーネルと幾何アプリケーションのためのテンソル中心ライブラリのボトルネックであるメモリ消費を緩和する。
また、PyTorch CUDAテンソルやHalideやTVMライブラリなど、標準的なGPUベースラインの差別化やパフォーマンス向上もサポートする。
keopsは最適化されたc++/cudaスキーマとpython(numpyとpytorch)、matlab、gnu rといったハイレベル言語用のバインダーを組み合わせる。
KeOpsは、カーネルメソッドのグラフィックライクなパフォーマンスを提供し、標準リポジトリ(PyPi、CRAN)で自由に利用できる。
その汎用性を示すために、我々はオンラインで幅広い設定のチュートリアルを \url{www.kernel-operations.io} で提供している。
関連論文リスト
- Explore as a Storm, Exploit as a Raindrop: On the Benefit of Fine-Tuning Kernel Schedulers with Coordinate Descent [48.791943145735]
カーネルの品質を向上しながら,Ansorの検索時間を短縮する可能性を示す。
このアプローチを、Ansorが生成した最初の300のカーネルに適用する。
この結果は20の有名なディープラーニングモデルで再現されている。
論文 参考訳(メタデータ) (2024-06-28T16:34:22Z) - iSpLib: A Library for Accelerating Graph Neural Networks using Auto-tuned Sparse Operations [1.3030767447016454]
iSpLibは、自動調整されたスパース操作を備えたPyTorchベースのC++ライブラリである。
iSpLibは、CPU上のPyTorch 2.1.0とPyTorch Geometric 2.4.0と同等のPyTorch 2.1.0と比較して、最大27倍のトレーニングスピードアップが得られることを示した。
論文 参考訳(メタデータ) (2024-03-21T21:56:44Z) - Snacks: a fast large-scale kernel SVM solver [0.8602553195689513]
SnacksはKernel Support Vector Machines用の新しい大規模ソルバである。
スナックは、カーネル行列の「Nystr」近似と、下次法の加速変種に依存している。
論文 参考訳(メタデータ) (2023-04-17T04:19:20Z) - PLSSVM: A (multi-)GPGPU-accelerated Least Squares Support Vector Machine [68.8204255655161]
Support Vector Machines (SVM) は機械学習で広く使われている。
しかし、現代的で最適化された実装でさえ、最先端ハードウェア上の大きな非自明な高密度データセットにはうまくスケールしない。
PLSSVMはLVMのドロップイン代替として使用できる。
論文 参考訳(メタデータ) (2022-02-25T13:24:23Z) - Giga-scale Kernel Matrix Vector Multiplication on GPU [9.106412307976067]
Kernel matrix vector multiplication (KMVM) は、カーネル文学から信号処理まで、機械学習と科学計算におけるユビキタスな演算である。
KMVMのスケーリング問題に対処するために,Faster-Fast and Free Memory Method(textF3$M)という新しい近似手法を提案する。
我々は、$textF3$Mで10億ポイントのKMVMを1分以内のハイエンドGPUで計算できることを示し、既存のCPU手法と比較して大幅に高速化された。
論文 参考訳(メタデータ) (2022-02-02T15:28:15Z) - TensorLy-Quantum: Quantum Machine Learning with Tensor Methods [67.29221827422164]
PyTorch APIを採用した量子回路シミュレーションのためのPythonライブラリを作成します。
Ly-Quantumは、単一のGPU上で数百のキュービット、複数のGPU上で数千のキュービットにスケールすることができる。
論文 参考訳(メタデータ) (2021-12-19T19:26:17Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - Efficient Graph Deep Learning in TensorFlow with tf_geometric [53.237754811019464]
グラフ深層学習のための効率的でフレンドリなライブラリであるtf_geometricを導入する。
tf_geometricは、人気のあるGNNの実装と同様に、グラフニューラルネットワーク(GNN)を構築するためのカーネルライブラリを提供する。
カーネルライブラリは、グラフデータ構造、グラフマップ-リデュースフレームワーク、グラフミニバッチ戦略など、効率的なGNNを構築するためのインフラストラクチャで構成されている。
論文 参考訳(メタデータ) (2021-01-27T17:16:36Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Kernel methods library for pattern analysis and machine learning in
python [0.0]
kernelmethodsライブラリは、ドメインに依存しない方法で、python MLエコシステムにおける重要な空白を埋めます。
このライブラリは、カーネルベースの操作を効率的にするための、よく定義された多くのクラスを提供する。
論文 参考訳(メタデータ) (2020-05-27T16:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。