論文の概要: Representation Learning on Heterostructures via Heterogeneous Anonymous
Walks
- arxiv url: http://arxiv.org/abs/2201.06972v1
- Date: Tue, 18 Jan 2022 13:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:56:50.151201
- Title: Representation Learning on Heterostructures via Heterogeneous Anonymous
Walks
- Title(参考訳): 異種アノニマスウォークによるヘテロ構造の表現学習
- Authors: Xuan Guo, Pengfei Jiao, Ting Pan, Wang Zhang, Mengyu Jia, Danyang Shi,
Wenjun Wang
- Abstract要約: ノードタイプと基盤構造を高度に多様に組み合わせたため,ヘテロ構造上での表現学習は極めて困難である。
異種匿名歩行埋め込み(HAW)とその変種粗いHAW(CHAW)という理論的に保証された手法を提案する。
そして、不均一な匿名ウォーク埋め込み(HAWE)とその派生した粗いHAWEをデータ駆動方式で考案し、非常に多数のウォークとトレイン埋め込みを用いて回避する。
- 参考スコア(独自算出の注目度): 9.94967091840104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Capturing structural similarity has been a hot topic in the field of network
embedding recently due to its great help in understanding the node functions
and behaviors. However, existing works have paid very much attention to
learning structures on homogeneous networks while the related study on
heterogeneous networks is still a void. In this paper, we try to take the first
step for representation learning on heterostructures, which is very challenging
due to their highly diverse combinations of node types and underlying
structures. To effectively distinguish diverse heterostructures, we firstly
propose a theoretically guaranteed technique called heterogeneous anonymous
walk (HAW) and its variant coarse HAW (CHAW). Then, we devise the heterogeneous
anonymous walk embedding (HAWE) and its variant coarse HAWE in a data-driven
manner to circumvent using an extremely large number of possible walks and
train embeddings by predicting occurring walks in the neighborhood of each
node. Finally, we design and apply extensive and illustrative experiments on
synthetic and real-world networks to build a benchmark on heterostructure
learning and evaluate the effectiveness of our methods. The results demonstrate
our methods achieve outstanding performance compared with both homogeneous and
heterogeneous classic methods, and can be applied on large-scale networks.
- Abstract(参考訳): 最近、ノードの機能や振る舞いを理解するのに非常に役立っているため、ネットワーク埋め込みの分野では構造的類似性を捉えることがホットな話題になっている。
しかしながら、既存の研究は均質ネットワークの学習構造に非常に注意を払っている一方で、ヘテロジニアスネットワークに関する関連する研究はいまだに無効である。
本稿では,ヘテロ構造の表現学習のための第一歩として,ノードタイプと基盤構造の組み合わせが多種多様であるため,非常に困難である。
多様なヘテロ構造を効果的に識別するために,まず,不均一匿名ウォーク (HAW) とその変種粗いHAW (CHAW) を理論的に保証する手法を提案する。
そして,同種匿名歩行埋め込み(HAWE)とその変種粗いHAWEをデータ駆動方式で考案し,各ノードの近傍で発生した歩行を予測して,非常に多数の歩行と列車の埋め込みを回避した。
最後に, ヘテロ構造学習のベンチマークを構築し, 提案手法の有効性を評価するために, 合成および実世界のネットワークに関する広範囲かつ実証的な実験を設計し, 適用する。
本手法は,均質で異質な古典的手法に比べて優れた性能を示し,大規模ネットワークに適用可能であることを示した。
関連論文リスト
- Leveraging Invariant Principle for Heterophilic Graph Structure Distribution Shifts [42.77503881972965]
Heterophilic Graph Neural Networks (HGNN) は、グラフ上の半教師付き学習タスクに対して有望な結果を示している。
この構造差や分布シフトを扱うために、異種グラフ上の不変ノード表現を学習する方法は、まだ解明されていない。
異種情報を組み込んだ不変ノード表現を生成可能なフレームワークである textbfHEI を提案する。
論文 参考訳(メタデータ) (2024-08-18T14:10:34Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Enhancing Representations through Heterogeneous Self-Supervised Learning [61.40674648939691]
本稿では,HSSL(Heterogeneous Self-Supervised Learning)を提案する。
HSSLは、構造的変化を伴わない表現学習方式で、ベースモデルに新しい特徴を付与する。
HSSLは、様々な自己教師型メソッドと互換性があり、様々な下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-08T10:44:05Z) - Demystifying Structural Disparity in Graph Neural Networks: Can One Size
Fit All? [61.35457647107439]
ほとんどの実世界のホモフィルグラフとヘテロフィルグラフは、ホモフィルグラフとヘテロフィルグラフの両方の構造パターンの混合ノードから構成される。
ノード分類におけるグラフニューラルネットワーク (GNN) は, 一般にホモ親和性ノード上で良好に機能することを示す。
次に、GNNに対する厳密で非I.d PAC-Bayesian一般化を提案し、性能格差の理由を明らかにした。
論文 参考訳(メタデータ) (2023-06-02T07:46:20Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - Revisiting Heterophily in Graph Convolution Networks by Learning
Representations Across Topological and Feature Spaces [20.775165967590173]
グラフ畳み込みネットワーク(GCN)は、グラフベースの機械学習タスクにおける表現の学習において、非常に成功した。
グラフ表現を2つの空間、すなわち位相空間と特徴空間で学習することで、GCNはヘテロフィリーに対処できると主張する。
半教師付きノード分類タスクにおけるGCNフレームワークの性能を実験的に検証した。
論文 参考訳(メタデータ) (2022-11-01T16:21:10Z) - Powerful Graph Convolutioal Networks with Adaptive Propagation Mechanism
for Homophily and Heterophily [38.50800951799888]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データ処理において大きな影響力を持つため、様々な分野に広く応用されている。
既存の方法は、主に高次近傍を集約したり、即時表現を結合することでヘテロフィリーを扱う。
本稿では, ホモフィリーやヘテロフィリーに応じて自動的に伝播・凝集過程を変更できる新しい伝播機構を提案する。
論文 参考訳(メタデータ) (2021-12-27T08:19:23Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Meta-Path-Free Representation Learning on Heterogeneous Networks [5.106061955284303]
異種ネットワーク,すなわち異種グラフ畳み込みネットワーク(HCN)におけるメタパス自由表現学習を提案する。
提案手法は異種を融合させ、$k$-strataアルゴリズム($k$は整数)を開発し、$k$-hopの構造的および意味的情報をキャプチャする。
実験の結果,提案手法は様々な解析課題において,現在の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-02-16T12:37:38Z) - Layer-stacked Attention for Heterogeneous Network Embedding [0.0]
レイヤスタックATTention Embedding (LATTE)は、各レイヤで上位のメタ関係を自動的に分解するアーキテクチャである。
LATTEは、異なる近傍範囲の異なるタイプのノードに対して、より解釈可能なアグリゲーションスキームを提供する。
帰納的ノード分類タスクと帰納的ノード分類タスクの両方において、LATTEは既存のアプローチと比較して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-09-17T05:13:41Z) - A Multi-Semantic Metapath Model for Large Scale Heterogeneous Network
Representation Learning [52.83948119677194]
大規模不均一表現学習のためのマルチセマンティックメタパス(MSM)モデルを提案する。
具体的には,マルチセマンティックなメタパスに基づくランダムウォークを生成し,不均衡な分布を扱うヘテロジニアスな近傍を構築する。
提案するフレームワークに対して,AmazonとAlibabaの2つの挑戦的なデータセットに対して,体系的な評価を行う。
論文 参考訳(メタデータ) (2020-07-19T22:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。