論文の概要: Learning Large-scale Network Embedding from Representative Subgraph
- arxiv url: http://arxiv.org/abs/2112.01442v1
- Date: Thu, 2 Dec 2021 17:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 19:31:37.282270
- Title: Learning Large-scale Network Embedding from Representative Subgraph
- Title(参考訳): 代表文からの大規模ネットワーク埋め込みの学習
- Authors: Junsheng Kong, Weizhao Li, Ben Liao, Jiezhong Qiu, Chang-Yu (Kim)
Hsieh, Yi Cai, Jinhui Zhu, and Shengyu Zhang
- Abstract要約: ネットワークマイニングにおける低次元潜在表現の学習を目的とした大規模ネットワーク埋め込みの課題について検討する。
ネットワーク埋め込みの分野での最近の研究は、DeepWalk、LINE、NetMF、NetSMFといった大きな進歩をもたらした。
そこで本研究では,ネットワーク埋め込み学習を行う「NES」という新しいネットワーク埋め込み手法を提案する。
- 参考スコア(独自算出の注目度): 17.812475828673538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of large-scale network embedding, which aims to learn
low-dimensional latent representations for network mining applications. Recent
research in the field of network embedding has led to significant progress such
as DeepWalk, LINE, NetMF, NetSMF. However, the huge size of many real-world
networks makes it computationally expensive to learn network embedding from the
entire network. In this work, we present a novel network embedding method
called "NES", which learns network embedding from a small representative
subgraph. NES leverages theories from graph sampling to efficiently construct
representative subgraph with smaller size which can be used to make inferences
about the full network, enabling significantly improved efficiency in embedding
learning. Then, NES computes the network embedding from this representative
subgraph, efficiently. Compared with well-known methods, extensive experiments
on networks of various scales and types demonstrate that NES achieves
comparable performance and significant efficiency superiority.
- Abstract(参考訳): ネットワークマイニングにおける低次元潜在表現の学習を目的とした大規模ネットワーク埋め込みの課題について検討する。
ネットワーク埋め込みの分野での最近の研究は、DeepWalk、LINE、NetMF、NetSMFといった大きな進歩をもたらした。
しかし、多くの実世界のネットワークの巨大なサイズは、ネットワーク全体からネットワーク埋め込みを学ぶのに計算コストがかかる。
そこで本研究では,小さな代表グラフからネットワーク埋め込みを学習する「NES」と呼ばれる新しいネットワーク埋め込み手法を提案する。
nesは、グラフサンプリングの理論を活用して、より小さなサイズで代表サブグラフを効率的に構築し、ネットワーク全体の推論に使用することで、組み込み学習の効率を大幅に向上させる。
そして、NESは、この代表サブグラフからのネットワーク埋め込みを効率的に計算する。
良く知られた手法と比較して、様々なスケールとタイプのネットワークに関する広範な実験は、NESが同等のパフォーマンスと大幅な効率性を達成することを示した。
関連論文リスト
- Adaptive Neural Networks Using Residual Fitting [2.546014024559691]
本稿では,ネットワークの残差における説明可能なエラーを探索し,十分なエラーが検出された場合,ネットワークを拡大するネットワーク成長手法を提案する。
これらのタスクの中で、成長するネットワークは、成長しない小さなネットワークよりも優れたパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-01-13T19:52:30Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Learning low-rank latent mesoscale structures in networks [1.1470070927586016]
ネットワークにおける低ランクメソスケール構造を記述するための新しい手法を提案する。
いくつかの合成ネットワークモデルと経験的友情、協調、タンパク質-タンパク質相互作用(PPI)ネットワークを使用します。
破損したネットワークから直接学習する潜在モチーフのみを用いて、破損したネットワークを認知する方法を示す。
論文 参考訳(メタデータ) (2021-02-13T18:54:49Z) - Sparsity in Deep Learning: Pruning and growth for efficient inference
and training in neural networks [78.47459801017959]
Sparsityは、モバイル機器に適合する通常のネットワークのメモリフットプリントを減らすことができる。
ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。
論文 参考訳(メタデータ) (2021-01-31T22:48:50Z) - Channel Planting for Deep Neural Networks using Knowledge Distillation [3.0165431987188245]
我々は,植林と呼ばれる深層ニューラルネットワークのための新しいインクリメンタルトレーニングアルゴリズムを提案する。
本システムでは,ネットワーク性能向上のためのパラメータの少ない最適ネットワークアーキテクチャを探索できる。
CIFAR-10/100 や STL-10 などの異なるデータセットに対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2020-11-04T16:29:59Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Inductive Graph Embeddings through Locality Encodings [0.42970700836450487]
ドメイン依存のノード/エッジ属性を使わずに,大規模ネットワークにインダクティブネットワークを組み込むことの問題点を考察する。
本稿では,学習アルゴリズムの基盤として,基本的定義済みの局所符号化を用いることを提案する。
本手法は,役割検出,リンク予測,ノード分類などのタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-26T13:09:11Z) - DINE: A Framework for Deep Incomplete Network Embedding [33.97952453310253]
本稿では,ディープ不完全ネットワーク埋め込み,すなわちDINEを提案する。
まず、期待最大化フレームワークを用いて、部分的に観測可能なネットワーク内のノードとエッジの両方を含む欠落部分を完成させる。
マルチラベル分類およびリンク予測タスクにおいて,DINEを3つのネットワーク上で評価する。
論文 参考訳(メタデータ) (2020-08-09T04:59:35Z) - Go Wide, Then Narrow: Efficient Training of Deep Thin Networks [62.26044348366186]
本稿では,深層ネットワークを理論的保証で訓練する効率的な手法を提案する。
我々の方法でのトレーニングにより、ResNet50はResNet101を上回り、BERT BaseはBERT Largeに匹敵する。
論文 参考訳(メタデータ) (2020-07-01T23:34:35Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。