論文の概要: Privacy-Preserving Representation Learning for Text-Attributed Networks
with Simplicial Complexes
- arxiv url: http://arxiv.org/abs/2302.04383v1
- Date: Thu, 9 Feb 2023 00:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 17:04:58.540600
- Title: Privacy-Preserving Representation Learning for Text-Attributed Networks
with Simplicial Complexes
- Title(参考訳): 単純複合型テキスト分散ネットワークにおけるプライバシ保護表現学習
- Authors: Huixin Zhan, Victor S. Sheng
- Abstract要約: simplicial Complex (RT4SC) のためのテキスト属性を用いた学習ネットワーク表現について, simplicial Neural Network (SNN) を用いて検討する。
SNNの表現出力に対する2つの潜在的攻撃について検討する。
本稿では,SNNからセキュアな表現出力を学習するための乗算器のプライバシー保護決定性差分的個人交互方向法について検討する。
- 参考スコア(独自算出の注目度): 24.82096971322501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although recent network representation learning (NRL) works in
text-attributed networks demonstrated superior performance for various graph
inference tasks, learning network representations could always raise privacy
concerns when nodes represent people or human-related variables. Moreover,
standard NRLs that leverage structural information from a graph proceed by
first encoding pairwise relationships into learned representations and then
analysing its properties. This approach is fundamentally misaligned with
problems where the relationships involve multiple points, and topological
structure must be encoded beyond pairwise interactions. Fortunately, the
machinery of topological data analysis (TDA) and, in particular, simplicial
neural networks (SNNs) offer a mathematically rigorous framework to learn
higher-order interactions between nodes. It is critical to investigate if the
representation outputs from SNNs are more vulnerable compared to regular
representation outputs from graph neural networks (GNNs) via pairwise
interactions. In my dissertation, I will first study learning the
representations with text attributes for simplicial complexes (RT4SC) via SNNs.
Then, I will conduct research on two potential attacks on the representation
outputs from SNNs: (1) membership inference attack, which infers whether a
certain node of a graph is inside the training data of the GNN model; and (2)
graph reconstruction attacks, which infer the confidential edges of a
text-attributed network. Finally, I will study a privacy-preserving
deterministic differentially private alternating direction method of multiplier
to learn secure representation outputs from SNNs that capture multi-scale
relationships and facilitate the passage from local structure to global
invariant features on text-attributed networks.
- Abstract(参考訳): 最近のネットワーク表現学習(NRL)は、様々なグラフ推論タスクにおいて優れた性能を示したが、ノードが人や人間に関連する変数を表現した場合、ネットワーク表現の学習は常にプライバシー上の懸念を生じさせる可能性がある。
さらに、グラフから構造情報を利用する標準NRLは、まずペア関係を学習された表現に符号化し、その特性を分析する。
このアプローチは、関係が複数の点を含む問題と基本的には一致せず、トポロジカル構造は対の相互作用を超えて符号化されなければならない。
幸いなことに、トポロジカルデータ解析(tda)と特にsnn(simplicial neural network)のメカニズムは、ノード間の高次相互作用を学ぶ数学的に厳密な枠組みを提供する。
snnからの表現出力が、グラフニューラルネットワーク(gnn)からの正規表現出力よりもペアワイズ相互作用を介して脆弱かどうかを調べることは重要である。
論文の中では、SNNを通してsimplicial Complex(RT4SC)のテキスト属性による表現を学習する。
次に、snsから出力される表現に対する2つの潜在的な攻撃について、(1)あるグラフのノードがgnnモデルのトレーニングデータ内にあるかどうかを推測するメンバーシップ推論攻撃、(2)テキスト属性ネットワークの秘密エッジを推定するグラフ再構成攻撃について研究する。
最後に,マルチプライヤのプライバシ保存型決定論的差分的変動方向法について検討し,マルチスケールな関係を捉えるSNNからセキュアな表現出力を学習し,ローカル構造からテキスト分散ネットワーク上のグローバル不変機能への遷移を容易にする。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Simplicial Attention Networks [4.401427499962144]
SNN(Simplicial Neural Networks)は、simplicial Complex上でメッセージパッシングを実行することによって、自然な相互作用をモデル化する。
Simplicial Attention Networks (SAT) は,近隣のsimplicial間の相互作用を動的に重み付けする,新しいタイプのsimplicial Networks を提案する。
SATは、既存の畳み込みSNNとGNNを2つの画像および軌跡分類タスクで上回ることを示す。
論文 参考訳(メタデータ) (2022-04-20T13:41:50Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - Simplicial Neural Networks [0.0]
SNN(Simplicial Neural Network)を提案する。
SNNは、Simplicial Complexと呼ばれる位相空間のクラスに存在するデータへのグラフニューラルネットワークの一般化である。
我々は,コオーサシップコンプレックスの欠落したデータを出力する作業において,SNNを試験する。
論文 参考訳(メタデータ) (2020-10-07T20:15:01Z) - Beyond Localized Graph Neural Networks: An Attributed Motif
Regularization Framework [6.790281989130923]
InfoMotifは、グラフ上の半教師付き、モチーフ正規化、学習フレームワークである。
グラフニューラルネットワーク(GNN)におけるメッセージパッシングの2つの重要な制限を克服する。
6つの多種多様な実世界のデータセットで有意な増加(3-10%の精度)を示した。
論文 参考訳(メタデータ) (2020-09-11T02:03:09Z) - SNoRe: Scalable Unsupervised Learning of Symbolic Node Representations [0.0]
提案したSNoReアルゴリズムは、個々のネットワークノードのシンボリックで人間の理解可能な表現を学習することができる。
SNoReの解釈可能な特徴は、個々の予測を直接説明するのに適している。
SNoReのベクトル化実装は大規模ネットワークにスケールし、現代のネットワーク学習および分析タスクに適している。
論文 参考訳(メタデータ) (2020-09-08T08:13:21Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。