論文の概要: PACE: A Parallelizable Computation Encoder for Directed Acyclic Graphs
- arxiv url: http://arxiv.org/abs/2203.10304v1
- Date: Sat, 19 Mar 2022 11:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:17:24.034850
- Title: PACE: A Parallelizable Computation Encoder for Directed Acyclic Graphs
- Title(参考訳): PACE: 有向非巡回グラフのための並列計算エンコーダ
- Authors: Zehao Dong, Muhan Zhang, Fuhai Li, Yixin Chen
- Abstract要約: 本稿では,ノードを同時に処理し,DAGを並列に符号化する並列化アテンションベース構造(PACE)を提案する。
PACEは、トレーニングと推論速度を大幅に向上した従来のDAGエンコーダよりも効率を向上するだけでなく、スムーズな遅延(DAGエンコーディング)空間を生成する。
- 参考スコア(独自算出の注目度): 30.294095901315746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization of directed acyclic graph (DAG) structures has many
applications, such as neural architecture search (NAS) and probabilistic
graphical model learning. Encoding DAGs into real vectors is a dominant
component in most neural-network-based DAG optimization frameworks. Currently,
most DAG encoders use an asynchronous message passing scheme which sequentially
processes nodes according to the dependency between nodes in a DAG. That is, a
node must not be processed until all its predecessors are processed. As a
result, they are inherently not parallelizable. In this work, we propose a
Parallelizable Attention-based Computation structure Encoder (PACE) that
processes nodes simultaneously and encodes DAGs in parallel. We demonstrate the
superiority of PACE through encoder-dependent optimization subroutines that
search the optimal DAG structure based on the learned DAG embeddings.
Experiments show that PACE not only improves the effectiveness over previous
sequential DAG encoders with a significantly boosted training and inference
speed, but also generates smooth latent (DAG encoding) spaces that are
beneficial to downstream optimization subroutines. Our source code is available
at \url{https://github.com/zehaodong/PACE}
- Abstract(参考訳): 有向非巡回グラフ(dag)構造の最適化には、ニューラルネットワーク探索(nas)や確率的グラフィカルモデル学習といった多くの応用がある。
DAGを実ベクトルにエンコードすることは、ほとんどのニューラルネットワークベースのDAG最適化フレームワークにおいて支配的なコンポーネントである。
現在、ほとんどのDAGエンコーダは非同期メッセージパッシングスキームを使用しており、DAG内のノード間の依存関係に応じて順次ノードを処理する。
つまり、前者がすべて処理されるまでノードは処理してはならない。
結果として、それらは本質的に並列化できない。
本研究では,ノードを同時に処理し,DAGを並列に符号化する並列化アテンションベースの計算構造(PACE)を提案する。
学習されたDAG埋め込みに基づいて最適なDAG構造を探索するエンコーダ依存最適化サブルーチンによるPACEの優位性を示す。
実験により、PACEはトレーニングと推論速度を大幅に向上した従来のDAGエンコーダよりも効率を向上するだけでなく、下流最適化サブルーチンに有利なスムーズな遅延(DAGエンコーディング)空間を生成することが示された。
我々のソースコードは \url{https://github.com/zehaodong/PACE} で入手できる。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Efficient Graph Similarity Computation with Alignment Regularization [7.143879014059894]
グラフ類似性計算(GSC)は、グラフニューラルネットワーク(GNN)を用いた学習に基づく予測タスクである。
適応正規化(AReg)と呼ばれる,シンプルながら強力な正規化技術によって,高品質な学習が達成可能であることを示す。
推論段階では、GNNエンコーダによって学習されたグラフレベル表現は、ARegを再度使用せずに直接類似度スコアを計算するために使用される。
論文 参考訳(メタデータ) (2024-06-21T07:37:28Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Structural Re-weighting Improves Graph Domain Adaptation [13.019371337183202]
本研究は,グラフ構造やノード属性による分散シフトの影響について検討する。
構造再重み付け(StruRW)と呼ばれる新しい手法がこの問題に対処するために提案され、合成グラフ、ベンチマークデータセット4つ、高エネルギー物理学における新しい応用についてテストされている。
論文 参考訳(メタデータ) (2023-06-05T20:11:30Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - NVDiff: Graph Generation through the Diffusion of Node Vectors [20.424372965054832]
我々は,VGAE構造を取り入れたNVDiffを提案し,サンプルノードベクトルに先立ってフレキシブルなスコアベース生成モデル(SGM)を用いる。
NVDiffフレームワーク上に構築され,グラフの局所的コンテキストとグローバル的コンテキストの両方をキャプチャ可能なアテンションベースのスコアネットワークを導入する。
論文 参考訳(メタデータ) (2022-11-19T20:43:39Z) - Neural Topological Ordering for Computation Graphs [23.225391263047364]
エンコーダ-デコーダフレームワークを用いたトポロジ的順序付けのためのエンドツーエンドの機械学習に基づくアプローチを提案する。
このモデルでは,最大2kノードの合成グラフにおいて,いくつかのトポロジ的順序付けベースラインで,より高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2022-07-13T00:12:02Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。