論文の概要: Skyline: Interactive In-Editor Computational Performance Profiling for
Deep Neural Network Training
- arxiv url: http://arxiv.org/abs/2008.06798v2
- Date: Thu, 20 Aug 2020 14:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 21:16:43.337946
- Title: Skyline: Interactive In-Editor Computational Performance Profiling for
Deep Neural Network Training
- Title(参考訳): Skyline: ディープニューラルネットワークトレーニングのためのインタラクティブなインエディタ計算パフォーマンスプロファイリング
- Authors: Geoffrey X. Yu, Tovi Grossman, Gennady Pekhimenko
- Abstract要約: Skylineは最先端のディープニューラルネットワーク(DNN)をトレーニングするためのエディタ内ツール
インタラクティブなパフォーマンス予測と視覚化を提供し、ドラッグするとコード内のバッチサイズが変更される、直接操作可能な視覚化を提供する。
スカイラインの探索的質的研究は有望な結果をもたらした。
- 参考スコア(独自算出の注目度): 24.512629761651535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training a state-of-the-art deep neural network (DNN) is a
computationally-expensive and time-consuming process, which incentivizes deep
learning developers to debug their DNNs for computational performance. However,
effectively performing this debugging requires intimate knowledge about the
underlying software and hardware systems---something that the typical deep
learning developer may not have. To help bridge this gap, we present Skyline: a
new interactive tool for DNN training that supports in-editor computational
performance profiling, visualization, and debugging. Skyline's key contribution
is that it leverages special computational properties of DNN training to
provide (i) interactive performance predictions and visualizations, and (ii)
directly manipulatable visualizations that, when dragged, mutate the batch size
in the code. As an in-editor tool, Skyline allows users to leverage these
diagnostic features to debug the performance of their DNNs during development.
An exploratory qualitative user study of Skyline produced promising results;
all the participants found Skyline to be useful and easy to use.
- Abstract(参考訳): 最先端のディープニューラルネットワーク(DNN)のトレーニングは、計算に精通した時間を要するプロセスであり、ディープラーニング開発者が計算パフォーマンスのためにDNNをデバッグするインセンティブを与える。
しかし、効果的にこのデバッグを実行するには、基盤となるソフトウェアとハードウェアシステムに関する深い知識が必要です。
このギャップを埋めるために、私たちはSkylineを紹介します。これはDNNトレーニングのためのインタラクティブなツールで、エディタ内での計算パフォーマンスのプロファイリング、可視化、デバッグをサポートします。
Skylineの重要な貢献は、DNNトレーニングの特別な計算特性を活用して提供することである。
(i)インタラクティブな性能予測と可視化、
(ii) ドラッグするとコード内のバッチサイズが変更される、直接操作可能な視覚化。
インエディタツールとしてSkylineでは,これらの診断機能を活用して,開発中のDNNのパフォーマンスをデバッグすることができる。
スカイラインの探索的質的ユーザ調査は有望な結果をもたらし、すべての参加者はスカイラインが有用で使いやすいと感じた。
関連論文リスト
- Tempo: Confidentiality Preservation in Cloud-Based Neural Network
Training [8.187538747666203]
クラウドディープラーニングプラットフォームは、計算リソースが不足している顧客に対して、費用対効果の高いディープニューラルネットワーク(DNN)トレーニングを提供する。
近年、研究者は、CPU信頼実行環境(TEE)を活用して、ディープラーニングにおけるデータのプライバシ保護を模索している。
本稿では、TEEと分散GPUと連携するクラウドベースの初のディープラーニングシステムであるTempoについて述べる。
論文 参考訳(メタデータ) (2024-01-21T15:57:04Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Designing and Training of Lightweight Neural Networks on Edge Devices
using Early Halting in Knowledge Distillation [16.74710649245842]
本稿では,エッジデバイス上での軽量ディープニューラルネットワーク(DNN)の設計と訓練のための新しいアプローチを提案する。
このアプローチでは、利用可能なストレージ、処理速度、許容可能な最大処理時間を考慮する。
本稿では,ネットワーク資源を保存できる新しい早期停止手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T16:18:24Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Testing Feedforward Neural Networks Training Programs [13.249453757295083]
ディープニューラルネットワークの動作の不整合を露呈するテストケースを生成するために、複数のテスト技術が提案されている。
これらのテクニックは、トレーニングプログラムがバグフリーで適切に設定されていることを暗黙的に仮定する。
本稿では,DNNトレーニングプログラムのエンドツーエンドなプロパティベースのデバッグ手法であるTheDeepCheckerを提案する。
論文 参考訳(メタデータ) (2022-04-01T20:49:14Z) - Privacy-Preserving Graph Neural Network Training and Inference as a
Cloud Service [15.939214141337803]
SecGNNは、軽量暗号と機械学習技術に関する洞察の相乗効果から構築されている。
SecGNNは、ほぼ手頃な性能で、同等のトレーニングと推論の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-16T02:57:10Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Wide and Deep Graph Neural Network with Distributed Online Learning [174.8221510182559]
グラフニューラルネットワーク(GNN)は、ネットワークデータから表現を学習するための、自然に分散したアーキテクチャである。
オンライン学習は、この問題を克服するためにテスト時にGNNを再トレーニングするために利用することができる。
本稿では,分散オンライン学習機構で更新可能な新しいアーキテクチャであるWide and Deep GNN(WD-GNN)を開発する。
論文 参考訳(メタデータ) (2021-07-19T23:56:48Z) - exploRNN: Understanding Recurrent Neural Networks through Visual
Exploration [6.006493809079212]
リカレントニューラルネットワーク(RNN)は、シーケンシャルデータを処理することができる。
本稿では,RNNのための対話型学習可視化である ExploRNN を提案する。
LSTM細胞内のデータフローの詳細な検査を可能にするとともに、粗いレベルでRNNのトレーニングプロセスの概要を提供します。
論文 参考訳(メタデータ) (2020-12-09T15:06:01Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。