論文の概要: Mind the Links: Cross-Layer Attention for Link Prediction in Multiplex Networks
- arxiv url: http://arxiv.org/abs/2509.23409v1
- Date: Sat, 27 Sep 2025 16:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.209923
- Title: Mind the Links: Cross-Layer Attention for Link Prediction in Multiplex Networks
- Title(参考訳): Mind the Links: 多重ネットワークにおけるリンク予測のためのクロスレイアテンション
- Authors: Devesh Sharma, Aditya Kishore, Ayush Garg, Debajyoti Mazumder, Debasis Mohapatra, Jasabanta Patro,
- Abstract要約: 多重グラフは共有ノード間の多様な関係をキャプチャする。
ほとんどの予測器は層を崩壊させるか、独立して扱う。
マルチビューエッジ分類として多重化リンク予測を行う。
- 参考スコア(独自算出の注目度): 1.2006896500048552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiplex graphs capture diverse relations among shared nodes. Most predictors either collapse layers or treat them independently. This loses crucial inter-layer dependencies and struggles with scalability. To overcome this, we frame multiplex link prediction as multi-view edge classification. For each node pair, we construct a sequence of per-layer edge views and apply cross-layer self-attention to fuse evidence for the target layer. We present two models as instances of this framework: Trans-SLE, a lightweight transformer over static embeddings, and Trans-GAT, which combines layer-specific GAT encoders with transformer fusion. To ensure scalability and fairness, we introduce a Union--Set candidate pool and two leakage-free protocols: cross-layer and inductive subgraph generalization. Experiments on six public multiplex datasets show consistent macro-F_1 gains over strong baselines (MELL, HOPLP-MUL, RMNE). Our approach is simple, scalable, and compatible with both precomputed embeddings and GNN encoders.
- Abstract(参考訳): 多重グラフは共有ノード間の多様な関係をキャプチャする。
ほとんどの予測器は層を崩壊させるか、独立して扱う。
これにより、レイヤ間の依存性が重要なくなり、スケーラビリティに苦しむ。
これを解決するために、マルチビューエッジ分類として多重化リンク予測を行う。
各ノード対に対して, 層間エッジビューのシーケンスを構築し, 対象層の証拠を融合させるために, 層間自己アテンションを適用した。
このフレームワークの例として、静的埋め込み上の軽量トランスフォーマーであるTrans-SLEと、層固有のGATエンコーダとトランスフュージョンを組み合わせたTrans-GATがある。
スケーラビリティと公平性を確保するために、Union-Set候補プールと2つのリークフリープロトコル(クロス層とインダクティブサブグラフの一般化)を導入する。
6つの公開多重データセットの実験は、強いベースライン(MELL, HOPLP-MUL, RMNE)よりも一貫したマクロF_1ゲインを示す。
我々のアプローチは単純でスケーラブルで、プリ計算された埋め込みとGNNエンコーダの両方と互換性がある。
関連論文リスト
- MSGCN: Multiplex Spatial Graph Convolution Network for Interlayer Link Weight Prediction [0.27624021966289597]
リンクウェイト予測は、バイナリリンク分類に比べて複雑さが増すため、より強調されている。
本稿では,複数層にまたがって情報を空間的に埋め込み,層間リンク重みを推定する多層空間グラフ畳み込みネットワーク(MSGCN)を提案する。
MSGCNモデルは空間グラフの畳み込みを多重ネットワークに一般化し、複数の層にまたがるノードの幾何学的構造を捉える。
論文 参考訳(メタデータ) (2025-04-24T17:08:16Z) - Multigraph Message Passing with Bi-Directional Multi-Edge Aggregations [5.193718340934995]
MEGA-GNNは、マルチグラフ上のメッセージパッシングのための統一されたフレームワークである。
我々は, MEGA-GNN が置換同変であるだけでなく,エッジ上で厳密な全順序付けを与えられることも示す。
実験の結果、MEGA-GNNはアンチ・モニー・ロンダリングのデータセットで最先端のソリューションを最大13%上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-29T20:15:18Z) - Unveiling Induction Heads: Provable Training Dynamics and Feature Learning in Transformers [54.20763128054692]
我々は,2層変換器が$n$-gramのマルコフ連鎖データ上でICLを実行するためにどのように訓練されているかを検討する。
クロスエントロピー ICL 損失に対する勾配流が極限モデルに収束することを証明する。
論文 参考訳(メタデータ) (2024-09-09T18:10:26Z) - Structure-Aware DropEdge Towards Deep Graph Convolutional Networks [83.38709956935095]
グラフ畳み込みネットワーク(GCN)は、複数のレイヤが積み重なると、パフォーマンスが著しく低下する。
オーバースムーシングは、入力からのネットワーク出力を、ネットワーク深さの増加、表現率の低下、およびトレーニング容易性によって分離する。
我々はDropEdgeの洗練された対策について検討する。
論文 参考訳(メタデータ) (2023-06-21T08:11:40Z) - AMT: All-Pairs Multi-Field Transforms for Efficient Frame Interpolation [80.33846577924363]
ビデオフレームギスブのための新しいネットワークアーキテクチャであるAMT(All-Pairs Multi-Field Transforms)を提案する。
まず、すべての画素に対して双方向のボリュームを構築し、予測された両側フローを用いて相関関係を検索する。
第2に、入力フレーム上で逆向きのワープを行うために、一対の更新された粗い流れから細粒度の流れ場の複数のグループを導出する。
論文 参考訳(メタデータ) (2023-04-19T16:18:47Z) - HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation [3.478921293603811]
HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T11:30:06Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Augmenting Convolutional networks with attention-based aggregation [55.97184767391253]
我々は,非局所的推論を実現するために,注目に基づくグローバルマップを用いた畳み込みネットワークの強化方法を示す。
この学習集約層を2つのパラメータ(幅と深さ)でパラメータ化した単純パッチベースの畳み込みネットワークで接続する。
これは、特にメモリ消費の点で、精度と複雑さの間の驚くほど競争力のあるトレードオフをもたらす。
論文 参考訳(メタデータ) (2021-12-27T14:05:41Z) - Graph Cross Networks with Vertex Infomax Pooling [69.38969610952927]
グラフの複数スケールから包括的特徴学習を実現するための新しいグラフクロスネットワーク(GXN)を提案する。
グラフのトレーニング可能な階層表現に基づいて、GXNは、スケール間で中間的特徴の交換を可能にし、情報フローを促進する。
論文 参考訳(メタデータ) (2020-10-05T06:34:23Z) - Relation Transformer Network [25.141472361426818]
本稿では,シーングラフ生成と関係予測のためのトランスフォーメーションを提案する。
我々はトランスのエンコーダ・デコーダアーキテクチャを利用して,ノードとエッジのリッチな機能埋め込みを行う。
我々の関係予測モジュールは学習ノードとエッジ埋め込みから有向関係を分類する。
論文 参考訳(メタデータ) (2020-04-13T20:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。