論文の概要: Space-Invariant Projection in Streaming Network Embedding
- arxiv url: http://arxiv.org/abs/2303.06293v1
- Date: Sat, 11 Mar 2023 03:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 19:56:37.566459
- Title: Space-Invariant Projection in Streaming Network Embedding
- Title(参考訳): ストリーミングネットワーク埋め込みにおける空間不変射影
- Authors: Yanwen Zhang, Huiwen Wang and Jichang Zhao
- Abstract要約: Space-Invariant Projection (SIP) は、任意の静的MFベースの埋め込みスキームが動的ネットワークに新しいノードを高速に埋め込むことを可能にするために提案されている。
3つの実データセットにおいて,SIPは適応性だけでなく,ノード分類タスクの効率性や効率性にも優れることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Newly arriving nodes in dynamics networks would gradually make the node
embedding space drifted and the retraining of node embedding and downstream
models indispensable. An exact threshold size of these new nodes, below which
the node embedding space will be predicatively maintained, however, is rarely
considered in either theory or experiment. From the view of matrix perturbation
theory, a threshold of the maximum number of new nodes that keep the node
embedding space approximately equivalent is analytically provided and
empirically validated. It is therefore theoretically guaranteed that as the
size of newly arriving nodes is below this threshold, embeddings of these new
nodes can be quickly derived from embeddings of original nodes. A generation
framework, Space-Invariant Projection (SIP), is accordingly proposed to enables
arbitrary static MF-based embedding schemes to embed new nodes in dynamics
networks fast. The time complexity of SIP is linear with the network size. By
combining SIP with four state-of-the-art MF-based schemes, we show that SIP
exhibits not only wide adaptability but also strong empirical performance in
terms of efficiency and efficacy on the node classification task in three real
datasets.
- Abstract(参考訳): ダイナミクスネットワークに新たに到着したノードは、ノード埋め込みスペースがドリフトし、ノード埋め込みと下流モデルの再トレーニングが不可欠になる。
しかし、これらの新しいノードの正確なしきい値サイズは、ノードの埋め込み空間が述語的に維持されるであろうが、理論や実験ではほとんど考慮されない。
行列摂動理論の観点からは、ノード埋め込み空間をほぼ等価に保つ新しいノードの最大数のしきい値が解析的に提供され、実証的に検証される。
したがって、新たに到着したノードのサイズがこのしきい値以下であるので、これらの新しいノードの埋め込みは、元のノードの埋め込みから素早く引き出すことができる。
生成フレームワークであるSpace-Invariant Projection (SIP) が提案され、任意の静的MFベースの埋め込みスキームが動的ネットワークに新しいノードを高速に埋め込むことを可能にする。
SIPの時間複雑性はネットワークサイズと線形である。
SIPと最先端の4つのMFベースのスキームを組み合わせることで、SIPは広範適応性だけでなく、3つの実データセットにおけるノード分類タスクの効率性と有効性にも優れた経験的性能を示すことを示す。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - Accelerating Dynamic Network Embedding with Billions of Parameter
Updates to Milliseconds [27.98359191399847]
本稿では,ノードごとの更新ではなく,埋め込み空間の軸を回転させ,拡張する新しい動的ネットワーク埋め込みパラダイムを提案する。
具体的には,DAMF(Dynamic Adjacency Matrix Factorization)アルゴリズムを提案する。
異なるサイズの動的グラフ上でのノード分類、リンク予測、グラフ再構成の実験は、DAMFが動的ネットワーク埋め込みを進めることを示唆している。
論文 参考訳(メタデータ) (2023-06-15T09:02:17Z) - DyCSC: Modeling the Evolutionary Process of Dynamic Networks Based on
Cluster Structure [1.005130974691351]
動的クラスタ構造制約モデル(DyCSC)と呼ばれる新しい時間ネットワーク埋め込み手法を提案する。
DyCSCは、ネットワーク内のノードの傾向に時間的制約を課すことで、時間的ネットワークの進化を捉えている。
複数の時間リンク予測タスクにおいて、競合する手法をかなりのマージンで一貫して上回る。
論文 参考訳(メタデータ) (2022-10-23T10:23:08Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - DeHIN: A Decentralized Framework for Embedding Large-scale Heterogeneous
Information Networks [64.62314068155997]
本稿では,異種情報ネットワーク(DeHIN)のための分散埋め込みフレームワークについて述べる。
DeHINは、大きなHINをハイパーグラフとして革新的に定式化するコンテキスト保存分割機構を提供する。
当社のフレームワークでは,木のようなパイプラインを採用することで,効率よくHINを分割する分散戦略を採用しています。
論文 参考訳(メタデータ) (2022-01-08T04:08:36Z) - GloDyNE: Global Topology Preserving Dynamic Network Embedding [31.269883917366478]
動的ネットワーク埋め込み(DNE)は、ネットワークトポロジを各ステップで保存しながらノード埋め込みを更新することを目的としている。
本稿では,ネットワーク上の代表ノードを多様に選択する新たな手法を提案する。
実験では、少数のノードが選択されているGloDyNEが、すでに優れたパフォーマンスまたは同等のパフォーマンスを達成できることを示した。
論文 参考訳(メタデータ) (2020-08-05T05:10:15Z) - Neural Architecture Search as Sparse Supernet [78.09905626281046]
本稿では,単一パスと複数パスの探索から混合パスの自動探索へ,ニューラルネットワーク探索(NAS)の問題を拡大することを目的とする。
我々はNAS問題をスパース・スーパーネットとして,空間制約を混合した新しい連続アーキテクチャ表現を用いてモデル化する。
スパーススーパーネットは、コンパクトなノードセット上でスパース混合パスを自動的に達成する。
論文 参考訳(メタデータ) (2020-07-31T14:51:52Z) - Online Dynamic Network Embedding [26.203786679460528]
本稿では,動的ネットワークを扱うためにRNNE(Recurrent Neural Network Embedding)アルゴリズムを提案する。
RNNEはネットワークの静的特性と動的特性の両方を考慮している。
RNNEを5つのネットワーク上で評価し、最先端のアルゴリズムと比較する。
論文 参考訳(メタデータ) (2020-06-30T02:21:37Z) - A Self-Attention Network based Node Embedding Model [17.10479440152652]
新規な教師なし埋め込みモデルであるSANNEを提案する。
我々のSANNEは、現在のノードだけでなく、新しく見つからないノードにも、プラルーシブルな埋め込みを生成することを目的としています。
実験の結果,提案したSANNEはノード分類タスクの最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-06-22T09:46:10Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。