論文の概要: Bringing UMAP Closer to the Speed of Light with GPU Acceleration
- arxiv url: http://arxiv.org/abs/2008.00325v3
- Date: Mon, 29 Mar 2021 09:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:28:30.654715
- Title: Bringing UMAP Closer to the Speed of Light with GPU Acceleration
- Title(参考訳): GPUアクセラレーションでUMAPを光速に近づける
- Authors: Corey J. Nolet, Victor Lafargue, Edward Raff, Thejaswi Nanditale, Tim
Oates, John Zedlewski, Joshua Patterson
- Abstract要約: UMAPの高速で忠実なGPUバージョンを作るために使用できるテクニックをいくつか紹介する。
これらの設計選択/無数の多くは汎用的であり、GPUを使用するための他のグラフおよび多様体学習アルゴリズムの変換を知らせる可能性がある。
- 参考スコア(独自算出の注目度): 28.64858826371568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Uniform Manifold Approximation and Projection (UMAP) algorithm has become
widely popular for its ease of use, quality of results, and support for
exploratory, unsupervised, supervised, and semi-supervised learning. While many
algorithms can be ported to a GPU in a simple and direct fashion, such efforts
have resulted in inefficient and inaccurate versions of UMAP. We show a number
of techniques that can be used to make a faster and more faithful GPU version
of UMAP, and obtain speedups of up to 100x in practice. Many of these design
choices/lessons are general purpose and may inform the conversion of other
graph and manifold learning algorithms to use GPUs. Our implementation has been
made publicly available as part of the open source RAPIDS cuML library
(https://github.com/rapidsai/cuml).
- Abstract(参考訳): Unform Manifold Approximation and Projection (UMAP)アルゴリズムは、使いやすさ、結果の質、探索的、教師なし、教師なし、半教師付き学習のサポートで広く普及している。
多くのアルゴリズムは、単純で直接的な方法でGPUに移植できるが、そのような取り組みは非効率で不正確なバージョンのUMAPを生み出している。
私たちは、umapのより速く、より忠実なgpuバージョンを作り、実際に最大100倍のスピードアップを得るために使用できる多くのテクニックを示します。
これらの設計選択/学習の多くは汎用であり、他のグラフおよび多様体学習アルゴリズムがgpuを使用するように変換される可能性がある。
我々の実装は、オープンソースのRAPIDS cuMLライブラリ(https://github.com/rapidsai/cuml)の一部として公開されています。
関連論文リスト
- Ramp Up NTT in Record Time using GPU-Accelerated Algorithms and LLM-based Code Generation [11.120838175165986]
ホモモルフィック暗号化(HE)はプライバシ保護機械学習(PPML)のコアビルディングブロックである
HEの性能向上のために、多くのGPU加速暗号方式が提案されている。
大規模言語モデル(LLM)の強力なコード生成能力を考えると、実用的なGPUフレンドリなアルゴリズムコードを自動的に生成する可能性を探究する。
論文 参考訳(メタデータ) (2025-02-16T12:53:23Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - A modular software framework for the design and implementation of
ptychography algorithms [55.41644538483948]
我々は,Pychographyデータセットをシミュレートし,最先端の再構築アルゴリズムをテストすることを目的とした,新しいptychographyソフトウェアフレームワークであるSciComを紹介する。
その単純さにもかかわらず、ソフトウェアはPyTorchインターフェースによる高速化処理を利用する。
結果は合成データと実データの両方で示される。
論文 参考訳(メタデータ) (2022-05-06T16:32:37Z) - GPU-accelerated Faster Mean Shift with euclidean distance metrics [1.3507758562554621]
平均シフトアルゴリズムはクラスタリング問題の解法として広く用いられている。
従来の研究では,GPUを高速化する高速平均シフトアルゴリズムが提案されている。
本研究では,ユークリッド距離測定値を扱うために,従来のアルゴリズムを拡張し改良する。
論文 参考訳(メタデータ) (2021-12-27T20:18:24Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - Semiring Primitives for Sparse Neighborhood Methods on the GPU [16.56995698312561]
スパース半環プリミティブは、幅広い臨界距離測度をサポートするのに十分な柔軟性を持つことができる。
このプリミティブは、多くの近隣情報検索と機械学習アルゴリズムがスパース入力を受け付けるための基礎的なコンポーネントである。
論文 参考訳(メタデータ) (2021-04-13T17:05:03Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Out-of-Core GPU Gradient Boosting [0.0]
モデル精度やトレーニング時間を劣化させることなく、より大規模なデータセットを所定のGPUに適合させることができることを示す。
グラデーションブースティングのGPU実装としてはこれが初めてだ。
論文 参考訳(メタデータ) (2020-05-19T00:41:00Z) - Heterogeneous CPU+GPU Stochastic Gradient Descent Algorithms [1.3249453757295084]
ヘテロジニアスCPU+GPUアーキテクチャの深層学習のためのトレーニングアルゴリズムについて検討する。
私たちの2倍の目標 -- 収束率と資源利用を同時に最大化する -- は、この問題を難しくします。
これらのアルゴリズムの実装は,複数の実データセットよりも高速な収束と資源利用の両立を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:21:20Z) - MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical
Models [96.1052289276254]
この研究は、人気のあるDual Block-Coordinate Ascent原則に基づく新しいMAP-solverを導入している。
驚いたことに、性能の低い解法に小さな変更を加えることで、既存の解法を大きなマージンで大幅に上回る新しい解法MPLP++を導出します。
論文 参考訳(メタデータ) (2020-04-16T16:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。