論文の概要: Everest: GPU-Accelerated System For Mining Temporal Motifs
- arxiv url: http://arxiv.org/abs/2310.02800v3
- Date: Wed, 11 Oct 2023 15:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 04:44:23.006765
- Title: Everest: GPU-Accelerated System For Mining Temporal Motifs
- Title(参考訳): エベレスト:一時的なモチーフをマイニングするGPU加速システム
- Authors: Yichao Yuan, Haojie Ye, Sanketh Vedula, Wynn Kaza, Nishil Talati
- Abstract要約: 本稿では,マイニングの作業負荷(列挙とカウントの両方をサポートする)を高並列GPUアーキテクチャに効率的にマッピングするシステムであるEverestを提案する。
提案した最適化により,EverestはベースラインGPU実装の性能を平均19倍に向上することを示す。
- 参考スコア(独自算出の注目度): 1.6633312609655122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal motif mining is the task of finding the occurrences of subgraph
patterns within a large input temporal graph that obey the specified structural
and temporal constraints. Despite its utility in several critical application
domains that demand high performance (e.g., detecting fraud in financial
transaction graphs), the performance of existing software is limited on
commercial hardware platforms, in that it runs for tens of hours. This paper
presents Everest - a system that efficiently maps the workload of mining
(supports both enumeration and counting) temporal motifs to the highly parallel
GPU architecture. In particular, using an input temporal graph and a more
expressive user-defined temporal motif query definition compared to prior
works, Everest generates an execution plan and runtime primitives that optimize
the workload execution by exploiting the high compute throughput of a GPU.
Everest generates motif-specific mining code to reduce long-latency memory
accesses and frequent thread divergence operations. Everest incorporates novel
low-cost runtime mechanisms to enable load balancing to improve GPU hardware
utilization. To support large graphs that do not fit on GPU memory, Everest
also supports multi-GPU execution by intelligently partitioning the edge list
that prevents inter-GPU communication. Everest hides the implementation
complexity of presented optimizations away from the targeted system user for
better usability. Our evaluation shows that, using proposed optimizations,
Everest improves the performance of a baseline GPU implementation by 19x, on
average.
- Abstract(参考訳): 時間モチーフマイニングは、指定された構造的および時間的制約に従う大きな入力時間グラフ内でサブグラフパターンが発生することを見つけるタスクである。
ハイパフォーマンス(金融トランザクショングラフの不正検出など)を要求するいくつかの重要なアプリケーション領域で有効性があるにもかかわらず、既存のソフトウェアの性能は商用ハードウェアプラットフォームで制限されており、何時間も動作している。
本稿では,マイニングの作業負荷(列挙とカウントの両方をサポートする)を高並列GPUアーキテクチャに効率的にマッピングするシステムであるEverestを提案する。
特に、入力時相グラフとより表現力のあるユーザ定義時相モチーフクエリ定義を使い、エベレストはgpuの高い計算スループットを利用してワークロードの実行を最適化する実行計画と実行時プリミティブを生成する。
Everestは、長時間のメモリアクセスと頻繁なスレッド分散操作を減らすために、モチーフ固有のマイニングコードを生成する。
Everestには、GPUハードウェアの利用を改善するロードバランシングを可能にする、新たな低コストランタイムメカニズムが組み込まれている。
GPUメモリに合わない大きなグラフをサポートするために、Everestは、GPU間通信を防止するエッジリストをインテリジェントに分割することで、マルチGPU実行もサポートする。
everestは、提示された最適化の実装の複雑さを、ユーザビリティを向上させるために、ターゲットとするシステムユーザから隠している。
提案した最適化により,EverestはベースラインGPU実装の性能を平均19倍に向上することを示す。
関連論文リスト
- Multi-GPU RI-HF Energies and Analytic Gradients $-$ Towards High Throughput Ab Initio Molecular Dynamics [0.0]
本稿では,複数グラフィクス処理ユニット(GPU)を用いた高次ハートリー・フォックエネルギーと解析勾配の解法を最適化したアルゴリズムと実装を提案する。
このアルゴリズムは特に、中小分子(10-100原子)の高スループット初期分子動力学シミュレーションのために設計されている。
論文 参考訳(メタデータ) (2024-07-29T00:14:10Z) - Benchmarking GPUs on SVBRDF Extractor Model [0.0]
本研究では、より大きな入力画像(256x256)で動作するニューラルネットワークモデル上での異なるGPUの性能を区別する。
本研究では、より大きな入力画像(256x256)で動作するニューラルネットワークモデル上での異なるGPUの性能の差別化を試みた。
論文 参考訳(メタデータ) (2023-10-19T17:09:06Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - Quiver: Supporting GPUs for Low-Latency, High-Throughput GNN Serving
with Workload Awareness [4.8412870364335925]
Quiverは、低レイテンシと高スループットを備えた分散GPUベースのGNNサービスシステムである。
最新のGNN手法と比較して,Quiverは8倍のスループットで最大35倍のレイテンシを実現している。
論文 参考訳(メタデータ) (2023-05-18T10:34:23Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Providing Meaningful Data Summarizations Using Examplar-based Clustering
in Industry 4.0 [67.80123919697971]
我々は,従来のCPUアルゴリズムと比較して,一精度で最大72倍,半精度で最大452倍の高速化を実現していることを示す。
提案アルゴリズムは射出成形プロセスから得られた実世界のデータに適用し, 得られたサマリーが, コスト削減と不良部品製造の削減のために, この特定のプロセスのステアリングにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-05-25T15:55:14Z) - RTGPU: Real-Time GPU Scheduling of Hard Deadline Parallel Tasks with
Fine-Grain Utilization [5.02836935036198]
本論文では,複数のGPUアプリケーションの実行をリアルタイムにスケジュール可能なRTGPUを提案する。
提案手法は,従来の作業に比べてスケジューリング性に優れ,複数のGPUアプリケーションに厳しい期限をリアルタイムに保証する。
論文 参考訳(メタデータ) (2021-01-25T22:34:06Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Faster than FAST: GPU-Accelerated Frontend for High-Speed VIO [46.20949184826173]
この研究は、既存のコンピュータビジョンアルゴリズムを改善するために、効率的な低レベルGPUハードウェア固有の命令の適用性に焦点を当てている。
特に、非マックス抑圧とその後の特徴選択は、全体的な画像処理遅延への顕著な寄与である。
論文 参考訳(メタデータ) (2020-03-30T14:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。