論文の概要: AutoGMap: Learning to Map Large-scale Sparse Graphs on Memristive
Crossbars
- arxiv url: http://arxiv.org/abs/2111.07684v1
- Date: Mon, 15 Nov 2021 11:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 17:38:11.069307
- Title: AutoGMap: Learning to Map Large-scale Sparse Graphs on Memristive
Crossbars
- Title(参考訳): autogmap: memristive crossbars上で大規模スパースグラフをマッピングする学習
- Authors: Bo Lyu, Shengbo Wang, Shiping Wen, Kaibo Shi, Yin Yang, and Tingwen
Huang
- Abstract要約: 本研究は,問題を逐次決定問題としてモデル化する動的空間認識マッピング手法を提案する。
我々の生成モデル(LSTM)は、小型の典型的なグラフ/行列データに対して顕著なマッピング性能を生成する。
このスキームのコーディングフレームワークは直感的で、デプロイメントやコンパイルシステムに適応可能である。
- 参考スコア(独自算出の注目度): 21.835545525155453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sparse representation of graphs has shown its great potential for
accelerating the computation of the graph applications (e.g. Social Networks,
Knowledge Graphs) on traditional computing architectures (CPU, GPU, or TPU).
But the exploration of the large-scale sparse graph computing on
processing-in-memory (PIM) platforms (typically with memristive crossbars) is
still in its infancy. As we look to implement the computation or storage of
large-scale or batch graphs on memristive crossbars, a natural assumption would
be that we need a large-scale crossbar, but with low utilization. Some recent
works have questioned this assumption to avoid the waste of the storage and
computational resource by "block partition", which is fixed-size, progressively
scheduled, or coarse-grained, thus is not effectively sparsity-aware in our
view. This work proposes the dynamic sparsity-aware mapping scheme generating
method that models the problem as a sequential decision-making problem which is
solved by reinforcement learning (RL) algorithm (REINFORCE). Our generating
model (LSTM, combined with our dynamic-fill mechanism) generates remarkable
mapping performance on a small-scale typical graph/matrix data (43% area of the
original matrix with fully mapping), and two large-scale matrix data (22.5%
area on qh882, and 17.1% area on qh1484). Moreover, our coding framework of the
scheme is intuitive and has promising adaptability with the deployment or
compilation system.
- Abstract(参考訳): グラフのスパース表現は、従来の計算アーキテクチャ(CPU、GPU、TPU)におけるグラフアプリケーション(例えば、ソーシャルネットワーク、知識グラフ)の計算を高速化する大きな可能性を示している。
しかし、プロセッシング・イン・メモリ(PIM)プラットフォーム上の大規模スパースグラフコンピューティング(典型的にはメムリシブ・クロスバー)の探索はまだ初期段階である。
大規模なグラフやバッチグラフの計算や格納をmemristive crossbarsに実装しようとするとき、自然な仮定として、大規模なクロスバーが必要だが、利用頻度は低い。
近年の研究では、固定サイズ、漸進的スケジュール、粗粒度である「ブロックパーティション」によってストレージと計算資源の無駄を避けるという仮定に疑問が持たれている。
本研究は、強化学習(rl)アルゴリズム(reinforce)によって解かれる逐次意思決定問題として問題をモデル化する動的スパーシティ・アウェアマッピングスキーム生成手法を提案する。
我々の生成モデル(LSTM, 動的充填機構)は, 小型の典型的なグラフ/行列データ(全写像を持つ元の行列の43%の領域)と2つの大規模行列データ(qh882の22.5%, qh1484の17.1%の領域)で顕著なマッピング性能を生成する。
さらに,このスキームのコーディングフレームワークは直感的であり,デプロイやコンパイルシステムへの適応性が期待できる。
関連論文リスト
- Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Symmetry-preserving graph attention network to solve routing problems at
multiple resolutions [1.9304772860080408]
問題解決のために,最初の完全同変モデルとトレーニングを導入する。
入力グラフのマルチスケール構造を捉えることが不可欠である。
本稿では,Equi Graph Attention Network (mEGAT) アーキテクチャと組み合わせたマルチレゾリューション方式を提案する。
論文 参考訳(メタデータ) (2023-10-24T06:22:20Z) - Distributed Graph Embedding with Information-Oriented Random Walks [16.290803469068145]
グラフ埋め込みはグラフノードを低次元ベクトルにマッピングし、機械学習タスクで広く採用されている。
数十億のエッジグラフを埋め込むためにスケール可能な,汎用的で分散された情報中心のランダムウォークベースのグラフ埋め込みフレームワークであるDistGERを提案する。
D DistGERは2.33x-129x加速、機械間通信の45%削減、下流タスクの10%改善を示す。
論文 参考訳(メタデータ) (2023-03-28T03:11:21Z) - Scalable Graph Convolutional Network Training on Distributed-Memory
Systems [5.169989177779801]
グラフ畳み込みネットワーク(GCN)はグラフの深層学習に広く利用されている。
グラフ上の畳み込み操作は不規則なメモリアクセスパターンを誘導するので、GCNトレーニングのためのメモリと通信効率の並列アルゴリズムを設計することはユニークな課題である。
本稿では,大規模プロセッサ数にスケールする並列トレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-09T17:51:13Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Graph Pooling with Maximum-Weight $k$-Independent Sets [12.251091325930837]
最大ウェイト$k$非依存集合のグラフ理論的概念に基づくグラフ粗化機構を導入する。
我々は、経路長の歪み境界の理論的保証と、粗化グラフにおける重要な位相特性を保存できることを証明した。
論文 参考訳(メタデータ) (2022-08-06T14:12:47Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Adaptive Filters and Aggregator Fusion for Efficient Graph Convolutions [11.769185588579488]
本稿では,アクセル実装に適した特性とともに,メモリ消費と遅延を低減した最先端性能を示す。
提案手法は,エッジ数に比例するメモリを必要とする競合手法とは対照的に,グラフ内の頂点数に比例するメモリを用いる。
GNNが表現力を大幅に高める技術であるアグリゲーター融合を提案し、標準のスパース行列乗算よりも19%の遅延がわずかに増加している。
論文 参考訳(メタデータ) (2021-04-03T20:54:36Z) - Distributed Training of Graph Convolutional Networks using Subgraph
Approximation [72.89940126490715]
本稿では,グラフの複数の分割にまたがる失われる情報をサブグラフ近似スキームで緩和するトレーニング戦略を提案する。
サブグラフ近似アプローチは、分散トレーニングシステムが単一マシン精度で収束するのに役立つ。
論文 参考訳(メタデータ) (2020-12-09T09:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。