論文の概要: A Hybrid Membership Latent Distance Model for Unsigned and Signed
Integer Weighted Networks
- arxiv url: http://arxiv.org/abs/2308.15293v1
- Date: Tue, 29 Aug 2023 13:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:08:21.394288
- Title: A Hybrid Membership Latent Distance Model for Unsigned and Signed
Integer Weighted Networks
- Title(参考訳): 非符号および符号付き整数重み付きネットワークにおけるハイブリッドメンバーシップ遅延距離モデル
- Authors: Nikolaos Nakis, Abdulkadir \c{C}elikkanat, Morten M{\o}rup
- Abstract要約: グラフ表現学習(GRL)は,複雑なネットワークの理解を深めるための重要なツールとなっている。
本稿では,Lybrid Membership-Latent Distance Model (HM-LDM)を提案する。
- 参考スコア(独自算出の注目度): 0.17265013728931003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph representation learning (GRL) has become a prominent tool for
furthering the understanding of complex networks providing tools for network
embedding, link prediction, and node classification. In this paper, we propose
the Hybrid Membership-Latent Distance Model (HM-LDM) by exploring how a Latent
Distance Model (LDM) can be constrained to a latent simplex. By controlling the
edge lengths of the corners of the simplex, the volume of the latent space can
be systematically controlled. Thereby communities are revealed as the space
becomes more constrained, with hard memberships being recovered as the simplex
volume goes to zero. We further explore a recent likelihood formulation for
signed networks utilizing the Skellam distribution to account for signed
weighted networks and extend the HM-LDM to the signed Hybrid Membership-Latent
Distance Model (sHM-LDM). Importantly, the induced likelihood function
explicitly attracts nodes with positive links and deters nodes from having
negative interactions. We demonstrate the utility of HM-LDM and sHM-LDM on
several real networks. We find that the procedures successfully identify
prominent distinct structures, as well as how nodes relate to the extracted
aspects providing favorable performances in terms of link prediction when
compared to prominent baselines. Furthermore, the learned soft memberships
enable easily interpretable network visualizations highlighting distinct
patterns.
- Abstract(参考訳): グラフ表現学習(GRL)は、ネットワーク埋め込み、リンク予測、ノード分類のためのツールを提供する複雑なネットワークの理解を深めるための重要なツールとなっている。
本稿では, 潜在距離モデル (ldm) が潜在単純度にどのように制約されるかを検討することにより, ハイブリッドなメンバシップ・相対距離モデル (hm-ldm) を提案する。
単純体の角の長さを制御することにより、潜在空間の体積を体系的に制御することができる。
これにより、スペースがより制限されるにつれてコミュニティが明らかになり、単純ックスボリュームがゼロになるにつれてハードメンバーシップが回復される。
さらに、Skellam分布を利用して、符号付き重み付きネットワークを考慮し、HM-LDMを符号付きHybrid Membership-Latent Distance Model(sHM-LDM)に拡張する。
重要なことに、誘導可能性関数は、正のリンクを持つノードを明示的に引き付け、負の相互作用を持つノードを抑える。
複数の実ネットワーク上でHM-LDMとsHM-LDMの有用性を示す。
提案手法は明確な構造を識別するだけでなく,抽出されたアスペクトとノードがどのように関連し,リンク予測の面で有利な性能を示すかを示す。
さらに、学習したソフトメンバーシップは、異なるパターンをハイライトする容易に解釈可能なネットワーク可視化を可能にする。
関連論文リスト
- MFPNet: Multi-scale Feature Propagation Network For Lightweight Semantic
Segmentation [5.58363644107113]
マルチスケール特徴伝達ネットワーク(Net)と呼ばれる,新しい軽量セグメンテーションアーキテクチャを提案する。
フレキシブル・ボトルネック・残差モジュール(BRM)からなる対称残差ブロックを有するロバスト・デコーダ構造を設計する。
遅延長範囲のコンテキスト関係をモデル化する能力の利点を生かして、グラフ畳み込みネットワーク(GCN)を活用し、BRMブロック間のマルチスケールフィーチャの伝搬を容易にする。
論文 参考訳(メタデータ) (2023-09-10T02:02:29Z) - Self-Supervised Node Representation Learning via Node-to-Neighbourhood
Alignment [10.879056662671802]
自己教師付きノード表現学習は、教師付きノードと競合する未ラベルグラフからノード表現を学ぶことを目的としている。
本研究では,ノードとその周辺領域の隠蔽表現を整列させることにより,単純なyet効率の自己教師付きノード表現学習を提案する。
我々は,グラフ構造化データセットの集合に対して,ノード分類性能が期待できるノード表現を,小規模から大規模に学習する。
論文 参考訳(メタデータ) (2023-02-09T13:21:18Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - A Hierarchical Block Distance Model for Ultra Low-Dimensional Graph
Representations [0.0]
本稿では,ブロック距離モデル(HBDM)と呼ばれる,スケーラブルなグラフ表現学習手法を提案する。
HBDMは、階層全体を通して潜在距離モデル(LDM)を正確に近似することで、ホモフィリティーと推移性の原因となる。
我々は,数百万ノードからなる大規模ネットワーク上でのHBDMの性能を評価する。
論文 参考訳(メタデータ) (2022-04-12T15:23:12Z) - DeHIN: A Decentralized Framework for Embedding Large-scale Heterogeneous
Information Networks [64.62314068155997]
本稿では,異種情報ネットワーク(DeHIN)のための分散埋め込みフレームワークについて述べる。
DeHINは、大きなHINをハイパーグラフとして革新的に定式化するコンテキスト保存分割機構を提供する。
当社のフレームワークでは,木のようなパイプラインを採用することで,効率よくHINを分割する分散戦略を採用しています。
論文 参考訳(メタデータ) (2022-01-08T04:08:36Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - MUSE: Multi-faceted Attention for Signed Network Embedding [4.442695760653947]
符号付きネットワーク埋め込みは、正と負のリンクを持つ符号付きネットワークにおけるノードの低次元表現を学習するアプローチである。
この問題を解決するために,MUlti-faceted attention-based Signed network Embedding フレームワーク MUSE を提案する。
論文 参考訳(メタデータ) (2021-04-29T16:09:35Z) - Interpretable Signed Link Prediction with Signed Infomax Hyperbolic
Graph [54.03786611989613]
ソーシャルネットワークにおけるサイン付きリンク予測は、ユーザ(すなわちノード)間の基盤となる関係(リンク)を明らかにすることを目的としている
我々は Signed Infomax Hyperbolic Graph (textbfSIHG) と呼ばれる統一されたフレームワークを開発する。
高次ユーザ関係と複雑な階層をモデル化するために、ノードの埋め込みを投影し、より低歪みの双曲空間で測定する。
論文 参考訳(メタデータ) (2020-11-25T05:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。