論文の概要: EPINE: Enhanced Proximity Information Network Embedding
- arxiv url: http://arxiv.org/abs/2003.02689v1
- Date: Wed, 4 Mar 2020 15:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:01:03.622446
- Title: EPINE: Enhanced Proximity Information Network Embedding
- Title(参考訳): EPINE: 近接情報ネットワークの組み込み強化
- Authors: Luoyi Zhang, Ming Xu
- Abstract要約: 本研究では,隣接行列における貴重な情報をより深く掘り下げることに尽力した。
同じ目的のもと、多くのNE法は隣接行列のパワーによって高次近接を計算する。
より直感的に高次近接性を再定義することを提案する。
- 参考スコア(独自算出の注目度): 2.257737378757467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised homogeneous network embedding (NE) represents every vertex of
networks into a low-dimensional vector and meanwhile preserves the network
information. Adjacency matrices retain most of the network information, and
directly charactrize the first-order proximity. In this work, we devote to
mining valuable information in adjacency matrices at a deeper level. Under the
same objective, many NE methods calculate high-order proximity by the powers of
adjacency matrices, which is not accurate and well-designed enough. Instead, we
propose to redefine high-order proximity in a more intuitive manner. Besides,
we design a novel algorithm for calculation, which alleviates the scalability
problem in the field of accurate calculation for high-order proximity.
Comprehensive experiments on real-world network datasets demonstrate the
effectiveness of our method in downstream machine learning tasks such as
network reconstruction, link prediction and node classification.
- Abstract(参考訳): 非教師なし同種ネットワーク埋め込み(NE)は、ネットワークのすべての頂点を低次元ベクトルに表現し、ネットワーク情報を保存する。
隣接行列は、ネットワーク情報の大部分を保持し、一階近接を直接活性化する。
本研究では,より深いレベルで,隣接行列の貴重な情報をマイニングすることに専念する。
同じ目的のもと、多くのNE法は隣接行列の力で高次近接を計算するが、これは正確で十分に設計されていない。
代わりに、より直感的に高次近接性を再定義することを提案する。
さらに,高精度近接計算の分野におけるスケーラビリティ問題を緩和する新しい計算アルゴリズムを設計する。
実世界のネットワークデータセットに関する包括的実験により,ネットワーク再構築,リンク予測,ノード分類などの下流機械学習タスクにおける本手法の有効性が実証された。
関連論文リスト
- DeHIN: A Decentralized Framework for Embedding Large-scale Heterogeneous
Information Networks [64.62314068155997]
本稿では,異種情報ネットワーク(DeHIN)のための分散埋め込みフレームワークについて述べる。
DeHINは、大きなHINをハイパーグラフとして革新的に定式化するコンテキスト保存分割機構を提供する。
当社のフレームワークでは,木のようなパイプラインを採用することで,効率よくHINを分割する分散戦略を採用しています。
論文 参考訳(メタデータ) (2022-01-08T04:08:36Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Quantum-inspired event reconstruction with Tensor Networks: Matrix
Product States [0.0]
ニューラルネットワークは量子力学の概念を機械学習技術に結びつけるのに理想的な手段であることを示す。
エンタングルメントのエントロピーは,ネットワークの学習内容の解釈に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-15T18:00:02Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - ReduNet: A White-box Deep Network from the Principle of Maximizing Rate
Reduction [32.489371527159236]
この研究は、データ圧縮と識別表現の原理から、現代の深層(畳み込み)ネットワークを解釈することを目的とした、妥当な理論フレームワークの提供を試みる。
高次元マルチクラスデータに対して、最適な線形判別表現は、データセット全体と全てのサブセットの平均との符号化速度差を最大化することを示す。
速度減少目標を最適化するための基本的反復的勾配上昇スキームは,現代のディープネットワークの共通特性を共有する多層ディープネットワークであるReduNetに自然に導かれることを示す。
論文 参考訳(メタデータ) (2021-05-21T16:29:57Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - Identifying Critical Neurons in ANN Architectures using Mixed Integer
Programming [11.712073757744452]
深層ニューラルネットワークアーキテクチャにおいて,各ニューロンに重要なスコアを割り当てるための混合整数プログラム(MIP)を導入する。
我々は、トレーニングされたニューラルネットワークの全体的な精度を維持するために必要な臨界ニューロンの数(すなわち、高いスコアを持つ)を最小限に抑えるために、ソルバを駆動する。
論文 参考訳(メタデータ) (2020-02-17T21:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。