論文の概要: Benchmark Assessment for DeepSpeed Optimization Library
- arxiv url: http://arxiv.org/abs/2202.12831v1
- Date: Sat, 12 Feb 2022 04:52:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-06 15:05:26.801328
- Title: Benchmark Assessment for DeepSpeed Optimization Library
- Title(参考訳): DeepSpeed Optimization Libraryのベンチマーク評価
- Authors: Gongbo Liang and Izzat Alsmadi
- Abstract要約: ディープラーニング(DL)モデルは、そのパフォーマンスと大規模なデータセットを扱う能力のために、機械学習で広く使用されている。
このようなデータセットのサイズとDLモデルの複雑さは、そのようなモデルが複雑になり、大量のリソースとトレーニング時間を消費する。
最近のライブラリやアプリケーションは、DLの複雑さと効率の問題に対処するために導入されている。
- 参考スコア(独自算出の注目度): 1.7839986996686321
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) models are widely used in machine learning due to their
performance and ability to deal with large datasets while producing high
accuracy and performance metrics. The size of such datasets and the complexity
of DL models cause such models to be complex, consuming large amount of
resources and time to train. Many recent libraries and applications are
introduced to deal with DL complexity and efficiency issues. In this paper, we
evaluated one example, Microsoft DeepSpeed library through classification
tasks. DeepSpeed public sources reported classification performance metrics on
the LeNet architecture. We extended this through evaluating the library on
several modern neural network architectures, including convolutional neural
networks (CNNs) and Vision Transformer (ViT). Results indicated that DeepSpeed,
while can make improvements in some of those cases, it has no or negative
impact on others.
- Abstract(参考訳): ディープラーニング(DL)モデルは、高い精度とパフォーマンスのメトリクスを生成しながら、大規模なデータセットを扱う能力とパフォーマンスのために、機械学習で広く使用されている。
このようなデータセットのサイズとDLモデルの複雑さは、そのようなモデルが複雑になり、大量のリソースとトレーニング時間を消費する。
最近のライブラリやアプリケーションはDLの複雑さと効率の問題に対処するために導入されている。
本稿では,分類タスクを通じてmicrosoft deepspeed libraryの例を1つ評価した。
deepspeed public sourcesは、lenetアーキテクチャの分類パフォーマンスメトリクスを報告した。
convolutional neural networks (cnns) や vision transformer (vit) など,現代的なニューラルネットワークアーキテクチャのライブラリの評価を通じて,これを拡張した。
結果から、deepspeedはいくつかのケースで改善できるが、他のケースには影響がない、あるいは否定的な結果が得られた。
関連論文リスト
- Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - A serial dual-channel library occupancy detection system based on Faster
RCNN [14.922479331766368]
ソフトウェアベースのシート予約やセンサーベースの占有検知といった既存のソリューションは、この問題に効果的に対処するには不十分であることが証明されている。
本稿では,Faster RCNNに基づく2チャネルオブジェクト検出モデルを提案する。
このモデルは,図書館内の座席の全てを識別し,座席の占有状況に関するリアルタイム情報を継続的に更新するように設計されている。
論文 参考訳(メタデータ) (2023-06-28T10:27:17Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Deep Structure Learning using Feature Extraction in Trained Projection
Space [0.0]
我々は、低次元空間における畳み込みによる特徴抽出を可能にするために、Randon-transform(線形データ投影)の自己調整およびデータ依存バージョンを用いてネットワークアーキテクチャを導入する。
PiNetという名前のフレームワークは、エンドツーエンドでトレーニングでき、ボリュームセグメンテーションタスクで有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-09-01T12:16:55Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - RadixSpline: A Single-Pass Learned Index [84.84747738666263]
RadixSpline(RS)は、データに1回のパスで構築できる学習インデックスです。
RSは2つのパラメータしか持たないにもかかわらず、すべてのデータセットで競合的な結果を達成する。
論文 参考訳(メタデータ) (2020-04-30T01:56:54Z) - A Close Look at Deep Learning with Small Data [0.0]
モデル複雑性は、クラス毎に数個のサンプルしか利用できない場合に重要な要素であることを示す。
また、標準的なデータ拡張であっても、認識性能を大きなマージンで向上させることができることを示す。
論文 参考訳(メタデータ) (2020-03-28T17:11:29Z) - On the performance of deep learning models for time series
classification in streaming [0.0]
この研究は、データストリーミング分類のための様々なタイプのディープアーキテクチャのパフォーマンスを評価することである。
複数の時系列データセット上で,多層パーセプトロン,リカレント,畳み込み,時間的畳み込みニューラルネットワークなどのモデルを評価する。
論文 参考訳(メタデータ) (2020-03-05T11:41:29Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。