論文の概要: Unsupervised Learning for Identifying High Eigenvector Centrality Nodes:
A Graph Neural Network Approach
- arxiv url: http://arxiv.org/abs/2111.05264v1
- Date: Mon, 8 Nov 2021 06:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:12:18.982733
- Title: Unsupervised Learning for Identifying High Eigenvector Centrality Nodes:
A Graph Neural Network Approach
- Title(参考訳): 高固有ベクトル中心性ノード同定のための教師なし学習--グラフニューラルネットワークアプローチ
- Authors: Appan Rakaraddi, Mahardhika Pratama
- Abstract要約: Eigenvector Centrality(EC)を計算するための既存の手法は、低時間複雑度でECを決定するのに十分な頑健さを持たない傾向にある。
固有ベクトル中心度の高いノードの同定のためのディープラーニングモデルを提案する。
- 参考スコア(独自算出の注目度): 15.109961344286898
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The existing methods to calculate the Eigenvector Centrality(EC) tend to not
be robust enough for determination of EC in low time complexity or not
well-scalable for large networks, hence rendering them practically unreliable/
computationally expensive. So, it is of the essence to develop a method that is
scalable in low computational time. Hence, we propose a deep learning model for
the identification of nodes with high Eigenvector Centrality. There have been a
few previous works in identifying the high ranked nodes with supervised
learning methods, but in real-world cases, the graphs are not labelled and
hence deployment of supervised learning methods becomes a hazard and its usage
becomes impractical. So, we devise CUL(Centrality with Unsupervised Learning)
method to learn the relative EC scores in a network in an unsupervised manner.
To achieve this, we develop an Encoder-Decoder based framework that maps the
nodes to their respective estimated EC scores. Extensive experiments were
conducted on different synthetic and real-world networks. We compared CUL
against a baseline supervised method for EC estimation similar to some of the
past works. It was observed that even with training on a minuscule number of
training datasets, CUL delivers a relatively better accuracy score when
identifying the higher ranked nodes than its supervised counterpart. We also
show that CUL is much faster and has a smaller runtime than the conventional
baseline method for EC computation. The code is available at
https://github.com/codexhammer/CUL.
- Abstract(参考訳): Eigenvector Centrality (EC) を計算する既存の手法は、ECを低時間で決定するには十分に頑丈でない傾向にあり、大規模なネットワークではうまくスケーリングできないため、事実上信頼性が低く計算コストがかかる。
したがって、低計算時間でスケーラブルな方法を開発することは本質的に重要である。
そこで本研究では,固有ベクトル中心度の高いノード同定のための深層学習モデルを提案する。
上位ノードを教師付き学習手法で識別する作業は,これまでいくつか行われてきたが,実世界の場合,グラフにはラベルが付けられておらず,教師付き学習手法の展開は危険となり,その使用は現実的ではない。
そこで我々はCUL(Centrality with Unsupervised Learning)法を考案し,ネットワーク内の相対ECスコアを教師なしで学習する。
そこで我々は,ノードをそれぞれのECスコアにマッピングするEncoder-Decoderベースのフレームワークを開発した。
様々な合成および実世界のネットワークで大規模な実験が行われた。
過去の研究と類似したec推定のためのベースライン教師付き手法とculを比較した。
極小数のトレーニングデータセットをトレーニングしても、CULは教師付きノードよりも上位のノードを特定する場合に、比較的高い精度のスコアを提供する。
また、CULは従来のEC計算のベースライン法よりもはるかに高速で、ランタイムが小さいことを示す。
コードはhttps://github.com/codexhammer/culで入手できる。
関連論文リスト
- Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Stacked unsupervised learning with a network architecture found by
supervised meta-learning [4.209801809583906]
階層化された教師なし学習は、バックプロパゲーションよりも生物学的に妥当に思える。
しかし、SULは実践的な応用においてバックプロパゲーションには程遠い。
MNIST桁の完全教師なしクラスタリングが可能なSULアルゴリズムを示す。
論文 参考訳(メタデータ) (2022-06-06T16:17:20Z) - Network Gradient Descent Algorithm for Decentralized Federated Learning [0.2867517731896504]
本稿では,コミュニケーションベースネットワーク上で実行される新しい勾配勾配アルゴリズムである,完全に分散化されたフェデレーション学習アルゴリズムについて検討する。
NGD法では、統計(パラメータ推定など)のみを通信し、プライバシーのリスクを最小限に抑える必要がある。
学習速度とネットワーク構造の両方が,NGD推定器の統計的効率を決定する上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-05-06T02:53:31Z) - Pseudo-supervised Deep Subspace Clustering [27.139553299302754]
オートエンコーダ (AE) ベースのディープサブスペースクラスタリング (DSC) 手法は優れた性能を発揮している。
しかし、AEの自己再建損失は、豊富な有用な関係情報を無視する。
また、セマンティクスラベルを供給せずにハイレベルな類似性を学ぶことも困難である。
論文 参考訳(メタデータ) (2021-04-08T06:25:47Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - A Low Complexity Decentralized Neural Net with Centralized Equivalence
using Layer-wise Learning [49.15799302636519]
我々は、分散処理ノード(労働者)で最近提案された大規模ニューラルネットワークをトレーニングするために、低複雑性分散学習アルゴリズムを設計する。
我々の設定では、トレーニングデータは作業者間で分散されるが、プライバシやセキュリティ上の懸念からトレーニングプロセスでは共有されない。
本研究では,データが一箇所で利用可能であるかのように,等価な学習性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-29T13:08:12Z) - LoCo: Local Contrastive Representation Learning [93.98029899866866]
重なり合うローカルブロックが重なり合うことで、デコーダの深さを効果的に増加させ、上位ブロックが暗黙的に下位ブロックにフィードバックを送ることができることを示す。
このシンプルな設計は、ローカル学習とエンドツーエンドのコントラスト学習アルゴリズムのパフォーマンスギャップを初めて埋める。
論文 参考訳(メタデータ) (2020-08-04T05:41:29Z) - Approximating Network Centrality Measures Using Node Embedding and
Machine Learning [0.0]
本稿では,ニューラルネットワークとグラフ埋め込み技術を用いて,大規模ネットワークにおけるノード中心性を効率的に近似する手法を提案する。
提案手法は,グラフ埋め込み (NCA-GE) を用いたネットワーク中央性近似 (Network Centrality Approximation) と題され,グラフの隣接行列と各ノードの機能セットを用いる。
NCA-GEは、グラフのエッジの集合である$O(|E|)$, $E$の時間複雑性を持ち、大きなネットワークに適している。
論文 参考訳(メタデータ) (2020-06-29T21:19:40Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。