論文の概要: Siamese Attribute-missing Graph Auto-encoder
- arxiv url: http://arxiv.org/abs/2112.04842v1
- Date: Thu, 9 Dec 2021 11:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 20:35:13.133164
- Title: Siamese Attribute-missing Graph Auto-encoder
- Title(参考訳): siamese属性許容グラフ自動エンコーダ
- Authors: Wenxuan Tu, Sihang Zhou, Yue Liu, Xinwang Liu
- Abstract要約: 我々は,Samese Attribute-missing Graph Auto-Encoder (SAGA)を提案する。
まず、両方のプロセスで学習したパラメータを共有するために、シアムネットワーク構造を導入することで、属性の埋め込みと構造埋め込みを絡み合わせる。
第二に, K-nearest neighbor (KNN) と構造制約強化学習機構を導入し, 欠落属性の潜伏特性の質を向上させる。
- 参考スコア(独自算出の注目度): 35.79233150253881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning (GRL) on attribute-missing graphs, which is a
common yet challenging problem, has recently attracted considerable attention.
We observe that existing literature: 1) isolates the learning of attribute and
structure embedding thus fails to take full advantages of the two types of
information; 2) imposes too strict distribution assumption on the latent space
variables, leading to less discriminative feature representations. In this
paper, based on the idea of introducing intimate information interaction
between the two information sources, we propose our Siamese Attribute-missing
Graph Auto-encoder (SAGA). Specifically, three strategies have been conducted.
First, we entangle the attribute embedding and structure embedding by
introducing a siamese network structure to share the parameters learned by both
processes, which allows the network training to benefit from more abundant and
diverse information. Second, we introduce a K-nearest neighbor (KNN) and
structural constraint enhanced learning mechanism to improve the quality of
latent features of the missing attributes by filtering unreliable connections.
Third, we manually mask the connections on multiple adjacent matrices and force
the structural information embedding sub-network to recover the true adjacent
matrix, thus enforcing the resulting network to be able to selectively exploit
more high-order discriminative features for data completion. Extensive
experiments on six benchmark datasets demonstrate the superiority of our SAGA
against the state-of-the-art methods.
- Abstract(参考訳): 近年,属性欠落グラフのグラフ表現学習 (GRL) が注目されている。
既存の文献をご覧ください
1)属性と構造埋め込みの学習を分離するので、2種類の情報の利点をフルに活用できない。
2) 潜在空間変数にあまりにも厳密な分布仮定を課すため、識別的特徴表現は少なくなる。
本稿では,この2つの情報ソース間の親密な情報相互作用を導入するというアイデアに基づいて,我々のSiamese Attribute-missing Graph Auto-Encoder(SAGA)を提案する。
具体的には3つの戦略が実施されている。
まず、両方のプロセスで学習したパラメータを共有するためにシアムネットワーク構造を導入することで、属性の埋め込みと構造埋め込みを絡み合わせることにより、ネットワークトレーニングはより豊富で多様な情報から恩恵を受けることができる。
次に,K-nearest neighbor(KNN)と構造制約強化学習機構を導入し,信頼できない接続をフィルタリングすることで,欠落属性の潜伏特性の品質を向上させる。
第3に、複数の隣接行列上の接続を手動で隠蔽し、サブネットワークを埋め込んだ構造情報を強制して真の隣接行列を復元する。
6つのベンチマークデータセットに関する広範な実験は、最先端のメソッドに対するsagaの優位性を示しています。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Node Classification via Semantic-Structural Attention-Enhanced Graph Convolutional Networks [0.9463895540925061]
SSA-GCN(Semantic-structure attention-enhanced graph convolutional Network)を導入する。
グラフ構造をモデル化するだけでなく、分類性能を高めるために一般化されていない特徴を抽出する。
Cora と CiteSeer のデータセットに対する実験により,提案手法による性能改善が実証された。
論文 参考訳(メタデータ) (2024-03-24T06:28:54Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Cell Attention Networks [25.72671436731666]
グラフの頂点上で定義されたデータを操作するニューラルネットワークであるCell Attention Networks (CANs)を紹介する。
CANは、細胞複合体にコードされているように、下部と上部の地区を利用して、2つの独立したマスク付き自己保持機構を設計する。
実験結果から,CANはグラフベースの学習課題における技術結果と同等に比較可能な,低複雑性戦略であることが示唆された。
論文 参考訳(メタデータ) (2022-09-16T21:57:39Z) - Adaptive Attribute and Structure Subspace Clustering Network [49.040136530379094]
自己表現型サブスペースクラスタリングネットワークを提案する。
まず、入力データサンプルを表現する自動エンコーダについて検討する。
そこで我々は, 局所的な幾何学的構造を捉えるために, 混合符号と対称構造行列を構築した。
構築された属性構造と行列に対して自己表現を行い、親和性グラフを学習する。
論文 参考訳(メタデータ) (2021-09-28T14:00:57Z) - Deep Attributed Network Representation Learning via Attribute Enhanced
Neighborhood [10.954489956418191]
帰結型ネットワーク表現学習は、ネットワーク構造と属性情報の統合によるノード埋め込みの学習を目標としている。
微視的構造と属性のセマンティクスを同時に捉えることは困難である。
ノード表現の堅牢性と有効性を向上させるために,属性強化近傍(DANRL-ANE)モデルを用いたディープアトリビュートネットワーク表現学習を提案する。
論文 参考訳(メタデータ) (2021-04-12T07:03:16Z) - GAGE: Geometry Preserving Attributed Graph Embeddings [34.25102483600248]
本稿では,属性ネットワークにノードを埋め込む手法を提案する。
接続と属性の両方の距離を保存する。
学習課題に取り組むために,効率的かつ軽量なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-11-03T02:07:02Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。