論文の概要: GraphChallenge.org Sparse Deep Neural Network Performance
- arxiv url: http://arxiv.org/abs/2004.01181v2
- Date: Mon, 6 Apr 2020 02:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:32:20.862419
- Title: GraphChallenge.org Sparse Deep Neural Network Performance
- Title(参考訳): GraphChallenge.orgのスパースニューラルネットワーク性能
- Authors: Jeremy Kepner, Simon Alford, Vijay Gadepally, Michael Jones, Lauren
Milechin, Albert Reuther, Ryan Robinett, Sid Samsi
- Abstract要約: MIT/IEEE/Amazon GraphChallenge.orgは、グラフとスパースデータを分析するための新しいソリューションを開発するためのコミュニティアプローチを奨励している。
スパースディープニューラルネットワーク(DNN)チャレンジは、マシンラーニングやハイパフォーマンスコンピューティング、ビジュアル分析といった、先進的なスパースAIシステムに反映した課題を生み出すために、それまでの課題に基づいている。
- 参考スコア(独自算出の注目度): 8.685102575397874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The MIT/IEEE/Amazon GraphChallenge.org encourages community approaches to
developing new solutions for analyzing graphs and sparse data. Sparse AI
analytics present unique scalability difficulties. The Sparse Deep Neural
Network (DNN) Challenge draws upon prior challenges from machine learning, high
performance computing, and visual analytics to create a challenge that is
reflective of emerging sparse AI systems. The sparse DNN challenge is based on
a mathematically well-defined DNN inference computation and can be implemented
in any programming environment. In 2019 several sparse DNN challenge
submissions were received from a wide range of authors and organizations. This
paper presents a performance analysis of the best performers of these
submissions. These submissions show that their state-of-the-art sparse DNN
execution time, $T_{\rm DNN}$, is a strong function of the number of DNN
operations performed, $N_{\rm op}$. The sparse DNN challenge provides a clear
picture of current sparse DNN systems and underscores the need for new
innovations to achieve high performance on very large sparse DNNs.
- Abstract(参考訳): MIT/IEEE/Amazon GraphChallenge.orgは、グラフとスパースデータを分析するための新しいソリューションを開発するためのコミュニティアプローチを奨励している。
スパースAI分析には、ユニークなスケーラビリティの難しさがある。
スパースディープニューラルネットワーク(DNN)チャレンジは、マシンラーニングやハイパフォーマンスコンピューティング、ビジュアル分析といった、先進的なスパースAIシステムに反映した課題を生み出すために、それまでの課題に基づいている。
スパースDNNチャレンジは、数学的に明確に定義されたDNN推論計算に基づいており、任意のプログラミング環境で実装できる。
2019年、さまざまな著者や組織から、いくつかのまばらなDNNチャレンジが受理された。
本稿では,これらの作品のベストパフォーマーのパフォーマンス分析を行う。
これらの提案は、最先端のスパースDNN実行時間である$T_{\rm DNN}$が、実行されたDNN操作の数、$N_{\rm op}$の強い関数であることを示している。
スパースDNNチャレンジは、現在のスパースDNNシステムの明確なイメージを提供し、非常に大きなスパースDNNで高いパフォーマンスを達成するための新しいイノベーションの必要性を浮き彫りにしている。
関連論文リスト
- Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Edge AI as a Service with Coordinated Deep Neural Networks [0.24578723416255746]
CoDEは、個々のモデルからマルチタスクのDNNを作成することで、最高の報酬が得られるパスである最適なパスを見つけることを目的としている。
実験により,CoDEは推論スループットを向上し,最先端の既存手法に比べて高精度であることがわかった。
論文 参考訳(メタデータ) (2024-01-01T01:54:53Z) - LazyGNN: Large-Scale Graph Neural Networks via Lazy Propagation [51.552170474958736]
グラフ表現学習においてより効率的なモデルであるLazyGNNを実現するために,より深いモデルではなく,より浅いモデルによってグラフの長距離依存性をキャプチャすることを提案する。
LazyGNNは、ミニバッチのLazyGNNの開発を通じてさらに加速するために、既存のスケーラブルなアプローチ(サンプリング方法など)と互換性がある。
総合的な実験は、大規模なベンチマークで優れた予測性能とスケーラビリティを示す。
論文 参考訳(メタデータ) (2023-02-03T02:33:07Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。