論文の概要: How Low Can You Go? Searching for the Intrinsic Dimensionality of Complex Networks using Metric Node Embeddings
- arxiv url: http://arxiv.org/abs/2503.01723v1
- Date: Mon, 03 Mar 2025 16:37:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:14:11.295156
- Title: How Low Can You Go? Searching for the Intrinsic Dimensionality of Complex Networks using Metric Node Embeddings
- Title(参考訳): どのくらいの時間で行けるか?メトリックノード埋め込みを用いた複雑ネットワークの内在次元探索
- Authors: Nikolaos Nakis, Niels Raunkjær Holm, Andreas Lyhne Fiehn, Morten Mørup,
- Abstract要約: 低次元埋め込みは、グラフを含む機械学習タスクに不可欠である。
ユークリッド計量埋め込みを用いた場合、低次元埋め込みが可能であることを証明した。
初めて、大規模なネットワークであっても、非常に低次元空間に効果的に埋め込むことができることを示した。
- 参考スコア(独自算出の注目度): 1.7061868168035932
- License:
- Abstract: Low-dimensional embeddings are essential for machine learning tasks involving graphs, such as node classification, link prediction, community detection, network visualization, and network compression. Although recent studies have identified exact low-dimensional embeddings, the limits of the required embedding dimensions remain unclear. We presently prove that lower dimensional embeddings are possible when using Euclidean metric embeddings as opposed to vector-based Logistic PCA (LPCA) embeddings. In particular, we provide an efficient logarithmic search procedure for identifying the exact embedding dimension and demonstrate how metric embeddings enable inference of the exact embedding dimensions of large-scale networks by exploiting that the metric properties can be used to provide linearithmic scaling. Empirically, we show that our approach extracts substantially lower dimensional representations of networks than previously reported for small-sized networks. For the first time, we demonstrate that even large-scale networks can be effectively embedded in very low-dimensional spaces, and provide examples of scalable, exact reconstruction for graphs with up to a million nodes. Our approach highlights that the intrinsic dimensionality of networks is substantially lower than previously reported and provides a computationally efficient assessment of the exact embedding dimension also of large-scale networks. The surprisingly low dimensional representations achieved demonstrate that networks in general can be losslessly represented using very low dimensional feature spaces, which can be used to guide existing network analysis tasks from community detection and node classification to structure revealing exact network visualizations.
- Abstract(参考訳): 低次元埋め込みは、ノード分類、リンク予測、コミュニティ検出、ネットワーク可視化、ネットワーク圧縮などのグラフを含む機械学習タスクに不可欠である。
最近の研究では、正確な低次元埋め込みが特定されているが、必要な埋め込み次元の限界は未だ不明である。
本稿では,ベクトルベースロジスティックPCA (LPCA) 埋め込みとは対照的に,ユークリッド計量埋め込みを用いた場合,低次元埋め込みが可能であることを示す。
特に, 正確な埋め込み次元を同定するための効率的な対数探索手法を提供し, 大規模ネットワークの正確な埋め込み次元の推測を, 距離特性を有効活用して線形対称性のスケーリングを実現することを実証する。
実験により,本手法は従来報告されていた小型ネットワークよりも低次元のネットワーク表現を抽出することを示す。
初めて、大規模ネットワークであっても、非常に低次元の空間に効果的に埋め込まれることを示し、最大100万のノードを持つグラフのスケーラブルで正確な再構成の例を示した。
提案手法は,ネットワークの内在次元が従来報告したよりもかなり小さく,大規模ネットワークの正確な埋め込み次元を計算的に効率的に評価できることを示す。
驚くほど低次元の表現により、ネットワークは一般に非常に低次元の特徴空間を用いて損失なく表現できることが示され、これは既存のネットワーク解析タスクをコミュニティ検出やノード分類から、正確なネットワーク可視化を明らかにする構造へと導くのに使用できる。
関連論文リスト
- Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Community detection using low-dimensional network embedding algorithms [1.052782170493037]
我々はDeepWalkとnode2vecという2つの主要なアルゴリズムが、標準ネットワークモデルのためのコミュニティを回復する際の性能を厳格に理解している。
固定された共起窓を考えると、非追跡確率の低いランダムウォークを用いた node2vec は、多くのスペーサーネットワークで成功することを示す。
論文 参考訳(メタデータ) (2021-11-04T14:57:43Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Inductive Graph Embeddings through Locality Encodings [0.42970700836450487]
ドメイン依存のノード/エッジ属性を使わずに,大規模ネットワークにインダクティブネットワークを組み込むことの問題点を考察する。
本稿では,学習アルゴリズムの基盤として,基本的定義済みの局所符号化を用いることを提案する。
本手法は,役割検出,リンク予測,ノード分類などのタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-26T13:09:11Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - High-dimensional Convolutional Networks for Geometric Pattern
Recognition [75.43345656210992]
本稿では,パターン認識問題に対する高次元畳み込みネットワーク(ConvNet)を提案する。
まず,32次元の高次元空間における線形部分空間の検出における畳み込みネットワークの有効性について検討した。
次に、剛体運動下での3次元登録と画像対応推定に高次元のConvNetを適用する。
論文 参考訳(メタデータ) (2020-05-17T01:46:12Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - EPINE: Enhanced Proximity Information Network Embedding [2.257737378757467]
本研究では,隣接行列における貴重な情報をより深く掘り下げることに尽力した。
同じ目的のもと、多くのNE法は隣接行列のパワーによって高次近接を計算する。
より直感的に高次近接性を再定義することを提案する。
論文 参考訳(メタデータ) (2020-03-04T15:57:17Z) - Neural Network Tomography [4.407668482702675]
ネットワークトモグラフィーはネットワーク監視の領域における古典的な研究課題である。
NeuTomographyは、未測定のパフォーマンス指標を予測するために、ディープニューラルネットワークとデータ拡張を利用する。
NeuTomographyは、元のネットワークトポロジを再構築するために使用できる。
論文 参考訳(メタデータ) (2020-01-09T12:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。