論文の概要: Co-Neighbor Encoding Schema: A Light-cost Structure Encoding Method for Dynamic Link Prediction
- arxiv url: http://arxiv.org/abs/2407.20871v1
- Date: Tue, 30 Jul 2024 14:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 17:00:05.450266
- Title: Co-Neighbor Encoding Schema: A Light-cost Structure Encoding Method for Dynamic Link Prediction
- Title(参考訳): Co-Neighbor Encoding Schema: 動的リンク予測のための軽量構造符号化法
- Authors: Ke Cheng, Linzhi Peng, Junchen Ye, Leilei Sun, Bowen Du,
- Abstract要約: 時間グラフにおける構造エンコーディングは、グラフが進化するにつれて変化し続ける。
副会長。
ネットワーク(CNES)は冗長な計算を避けるため、情報をメモリに格納する。
動的グラフ学習フレームワークCo-Neighbor。
ネットワーク(CNE-N)が提案されている。
- 参考スコア(独自算出の注目度): 23.78287819018889
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure encoding has proven to be the key feature to distinguishing links in a graph. However, Structure encoding in the temporal graph keeps changing as the graph evolves, repeatedly computing such features can be time-consuming due to the high-order subgraph construction. We develop the Co-Neighbor Encoding Schema (CNES) to address this issue. Instead of recomputing the feature by the link, CNES stores information in the memory to avoid redundant calculations. Besides, unlike the existing memory-based dynamic graph learning method that stores node hidden states, we introduce a hashtable-based memory to compress the adjacency matrix for efficient structure feature construction and updating with vector computation in parallel. Furthermore, CNES introduces a Temporal-Diverse Memory to generate long-term and short-term structure encoding for neighbors with different structural information. A dynamic graph learning framework, Co-Neighbor Encoding Network (CNE-N), is proposed using the aforementioned techniques. Extensive experiments on thirteen public datasets verify the effectiveness and efficiency of the proposed method.
- Abstract(参考訳): 構造エンコーディングは、グラフ内のリンクを区別する鍵となる特徴であることが証明されている。
しかし、時間グラフにおける構造符号化は、グラフが進化するにつれて変化し続けており、高次部分グラフ構成のため、そのような特徴を繰り返し計算することは時間がかかる。
我々は,この問題に対処するCNES(Co-Neighbor Encoding Schema)を開発した。
リンクによって機能を再計算する代わりに、CNESは冗長な計算を避けるために、情報をメモリに格納する。
また,ノード隠蔽状態を記憶する既存のメモリベース動的グラフ学習法とは異なり,ハッシュテーブル型メモリを導入し,並列なベクトル計算による効率的な構造構成と更新のために,隣接行列を圧縮する。
さらに、CNESはTemporal-Diverse Memoryを導入し、異なる構造情報を持つ隣人に対して、長期的および短期的な構造エンコーディングを生成する。
上記の手法を用いて,動的グラフ学習フレームワークであるCo-Neighbor Encoding Network (CNE-N)を提案する。
13の公開データセットに対する大規模な実験により,提案手法の有効性と有効性が検証された。
関連論文リスト
- Improving Temporal Link Prediction via Temporal Walk Matrix Projection [23.67269478569189]
本稿では、時間的歩行行列を組み込んだTPNetと呼ばれる新しい時間的グラフニューラルネットワークを提案し、時間的情報と構造的情報の両方を同時に検討する。
TPNetは、ほとんどのデータセットで他のベースラインよりも優れており、SOTAベースラインと比較して最大で33.3倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2024-10-05T03:09:02Z) - Linear Transformer Topological Masking with Graph Random Features [52.717865653036796]
重み付き隣接行列の学習可能な関数としてトポロジカルマスクをパラメータ化する方法を示す。
私たちの効率的なマスキングアルゴリズムは、画像およびポイントクラウドデータのタスクに対して、強力なパフォーマンス向上を提供します。
論文 参考訳(メタデータ) (2024-10-04T14:24:06Z) - Filling in the Gaps: Efficient Event Coreference Resolution using Graph
Autoencoder Networks [0.0]
本稿では,低リソースの言語ドメインに適用されたイベント・コンカレンス・レゾリューション(ECR)の新規かつ効率的な手法を提案する。
ECRをグラフ再構成タスクとすることで、深いセマンティック埋め込みと構造的コア参照チェーンの知識を組み合わせることができる。
提案手法は,オランダの大規模イベントコアスコーパスにおいて,古典的参照ペア法よりも優れていた。
論文 参考訳(メタデータ) (2023-10-18T13:44:58Z) - Self-Supervised Temporal Graph learning with Temporal and Structural Intensity Alignment [53.72873672076391]
時間グラフ学習は、動的情報を用いたグラフベースのタスクのための高品質な表現を生成することを目的としている。
本稿では,時間的および構造的情報の両方を抽出する時間的グラフ学習のためのS2Tという自己教師型手法を提案する。
S2Tは、いくつかのデータセットにおける最先端の競合と比較して、少なくとも10.13%のパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-02-15T06:36:04Z) - TPGNN: Learning High-order Information in Dynamic Graphs via Temporal
Propagation [7.616789069832552]
本稿では,時間的伝搬に基づくグラフニューラルネットワーク,すなわちTPGNNを提案する。
Propagatorは、$k$-hop内のアンカーノードから一時的な隣人へのメッセージを伝搬し、同時に近隣の状態を更新する。
オーバースムーシングを防ぐため、モデルは$n$-hopの隣人からのメッセージを補完し、アンカーに保存された$n$-hopのメモリベクトルを更新する。
論文 参考訳(メタデータ) (2022-10-03T18:39:07Z) - Graph-to-Text Generation with Dynamic Structure Pruning [19.37474618180399]
入力グラフ表現条件を新たに生成したコンテキストに再エンコードする構造認識型クロスアテンション(SACA)機構を提案する。
LDC 2020T02 と ENT-DESC の2つのグラフ・トゥ・テキスト・データセットに対して,計算コストをわずかに増加させるだけで,最先端の新たな結果が得られる。
論文 参考訳(メタデータ) (2022-09-15T12:48:10Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z) - EfficientFCN: Holistically-guided Decoding for Semantic Segmentation [49.27021844132522]
最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T14:48:23Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。