論文の概要: Dragon-Alpha&cu32: A Java-based Tensor Computing Framework With its
High-Performance CUDA Library
- arxiv url: http://arxiv.org/abs/2305.08819v1
- Date: Mon, 15 May 2023 17:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 13:27:47.014918
- Title: Dragon-Alpha&cu32: A Java-based Tensor Computing Framework With its
High-Performance CUDA Library
- Title(参考訳): Dragon-Alpha&cu32:高性能CUDAライブラリを備えたJavaベースのテンソルコンピューティングフレームワーク
- Authors: Zhiyi Zhang, Pengfei Zhang, Qi Wang
- Abstract要約: Dragon-AlphaはJavaベースのコンピューティングフレームワークである。
実験によると、PyTorch&cuDNNと比較して、Dragon-Alpha&cu32は時間とメモリを節約している。
- 参考スコア(独自算出の注目度): 17.609773163875005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Java is very powerful, but in Deep Learning field, its capabilities probably
has not been sufficiently exploited. Compared to the Java-based
deep-learning-frameworks, the Python-based (PyTorch, TensorFlow, etc) are
undoubtedly the mainstream, due to their easy-to-use, flexibility and better
ecosystem. Dragon-Alpha is a Java-based Tensor Computing Framework, with
easy-to-use, high-scalability and high-performance, trying to break Java's
dilemma in deep learning field and make it more effective. Dragon-Alpha
supports different levels of APIs, and can be used as a deep-learning-framework
through its user-friendly high-level APIs. Dragon-Alpha has potential to
aggregate computing-power across heterogeneous platforms and devices, based on
its multi-layer architecture and Java's big-data ecosystem. Dragon-Alpha has
its asynchronized APIs to improve parallelism, and highly-optimized CUDA
library cu32 which adopts unique convolution\deconvolution operators for small
feature maps. The experiments show that, compared to PyTorch&cuDNN,
Dragon-Alpha&cu32 costs less time and memory (75.38% to 97.32%, 29.2% to
66.4%), to train some typical neural networks (AlexNet, VGG, GoogleNet, ResNet)
on Cifar-10.
- Abstract(参考訳): javaは非常に強力だが、ディープラーニングの分野では、その能力は十分に活用されていないだろう。
Javaベースのディープラーニングフレームワークと比較すると,Pythonベースの(PyTorchやTensorFlowなど)が主流であることは間違いありません。
Dragon-AlphaはJavaベースのTensor Computing Frameworkで、使いやすく、高いスケーラビリティとハイパフォーマンスを持ち、ディープラーニング分野におけるJavaのジレンマを破り、より効果的にしようとしている。
Dragon-AlphaはさまざまなレベルのAPIをサポートしており、ユーザフレンドリなハイレベルAPIを通じてディープラーニングフレームワークとして使用できる。
Dragon-Alphaは、多層アーキテクチャとJavaのビッグデータエコシステムに基づいて、異種プラットフォームやデバイスにまたがるコンピューティングパワーを集約する可能性がある。
Dragon-Alphaには並列性を改善するための非同期APIと、小さな特徴マップにユニークな畳み込み演算子を採用する高度に最適化されたCUDAライブラリcu32がある。
実験によると、Dragon-Alpha&cu32はPyTorch&cuDNNと比較して、Cifar-10上で典型的なニューラルネットワーク(AlexNet、VGG、GoogleNet、ResNet)をトレーニングするために、時間とメモリ(75.38%から97.32%、29.2%から66.4%)を節約している。
関連論文リスト
- CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - SequeL: A Continual Learning Library in PyTorch and JAX [50.33956216274694]
SequeLは継続学習のためのライブラリで、PyTorchとJAXフレームワークの両方をサポートする。
それは、正規化ベースのアプローチ、リプレイベースのアプローチ、ハイブリッドアプローチを含む、幅広い連続学習アルゴリズムのための統一インターフェースを提供する。
私たちはSequeLをオープンソースライブラリとしてリリースし、研究者や開発者が自身の目的で簡単にライブラリを実験し拡張することができます。
論文 参考訳(メタデータ) (2023-04-21T10:00:22Z) - pyGSL: A Graph Structure Learning Toolkit [14.000763778781547]
pyGSLは、最先端のグラフ構造学習モデルの効率的な実装を提供するPythonライブラリである。
pyGSLはGPUフレンドリーな方法で書かれており、より大きなネットワークタスクにスケールすることができる。
論文 参考訳(メタデータ) (2022-11-07T14:23:10Z) - hyperbox-brain: A Toolbox for Hyperbox-based Machine Learning Algorithms [9.061408029414455]
Hyperbox-brainはオープンソースのPythonライブラリで、主要なハイパーボックスベースの機械学習アルゴリズムを実装している。
Hyperbox-brainは、よく知られたScikit-learnおよびnumpyツールボックスと互換性のある統一APIを公開する。
論文 参考訳(メタデータ) (2022-10-06T06:40:07Z) - Torchhd: An Open Source Python Library to Support Research on
Hyperdimensional Computing and Vector Symbolic Architectures [99.70485761868193]
我々はHD/VSA用の高性能オープンソースPythonライブラリであるTorchhdを紹介する。
Torchhdは、HD/VSAをよりアクセスしやすくし、さらなる研究とアプリケーション開発のための効率的な基盤となることを目指している。
論文 参考訳(メタデータ) (2022-05-18T20:34:25Z) - Pyramidal Convolution: Rethinking Convolutional Neural Networks for
Visual Recognition [98.10703825716142]
この研究は、複数のフィルタスケールで入力を処理できるピラミッド畳み込み(PyConv)を導入している。
PyConvをベースとした,画像分類,映像行動分類/認識,オブジェクト検出,意味的画像分割/パーシングの4つの主要なタスクについて,異なるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-20T10:19:29Z) - giotto-tda: A Topological Data Analysis Toolkit for Machine Learning and
Data Exploration [4.8353738137338755]
giotto-tdaは、高性能なトポロジカルデータ分析と機械学習を統合するPythonライブラリである。
このライブラリの様々な種類のデータを扱う能力は、幅広い事前処理技術に根ざしている。
論文 参考訳(メタデータ) (2020-04-06T10:53:57Z) - fastai: A Layered API for Deep Learning [1.7223564681760164]
fastaiは、実践者に高度なコンポーネントを提供するディープラーニングライブラリである。
これは研究者に、新しいアプローチを構築するために混在し、マッチできる低レベルのコンポーネントを提供する。
論文 参考訳(メタデータ) (2020-02-11T21:16:48Z) - OPFython: A Python-Inspired Optimum-Path Forest Classifier [68.8204255655161]
本稿では,OPFythonと表記されるPythonベースのOptimum-Path Forestフレームワークを提案する。
OPFythonはPythonベースのライブラリなので、C言語よりもフレンドリーな環境とプロトタイピングの作業スペースを提供する。
論文 参考訳(メタデータ) (2020-01-28T15:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。