論文の概要: Simplifying complex machine learning by linearly separable network embedding spaces
- arxiv url: http://arxiv.org/abs/2410.01865v1
- Date: Wed, 2 Oct 2024 11:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 10:14:15.515566
- Title: Simplifying complex machine learning by linearly separable network embedding spaces
- Title(参考訳): 線形分離可能なネットワーク埋め込み空間による複雑な機械学習の単純化
- Authors: Alexandros Xenos, Noel-Malod Dognin, Natasa Przulj,
- Abstract要約: 低次元埋め込みは複雑なネットワークのモデリングと解析の基盤となっている。
この線形性をもたらすネットワークデータには構造的特性が存在することを示す。
より線形に分離可能な空間にネットワークを埋め込む新しいグラフレットベースの手法を提案する。
- 参考スコア(独自算出の注目度): 45.62331048595689
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Low-dimensional embeddings are a cornerstone in the modelling and analysis of complex networks. However, most existing approaches for mining network embedding spaces rely on computationally intensive machine learning systems to facilitate downstream tasks. In the field of NLP, word embedding spaces capture semantic relationships \textit{linearly}, allowing for information retrieval using \textit{simple linear operations} on word embedding vectors. Here, we demonstrate that there are structural properties of network data that yields this linearity. We show that the more homophilic the network representation, the more linearly separable the corresponding network embedding space, yielding better downstream analysis results. Hence, we introduce novel graphlet-based methods enabling embedding of networks into more linearly separable spaces, allowing for their better mining. Our fundamental insights into the structure of network data that enable their \textit{\textbf{linear}} mining and exploitation enable the ML community to build upon, towards efficiently and explainably mining of the complex network data.
- Abstract(参考訳): 低次元埋め込みは複雑なネットワークのモデリングと解析の基盤となっている。
しかし、ネットワーク埋め込み空間をマイニングするための既存のアプローチのほとんどは、下流タスクを容易にするために、計算集約的な機械学習システムに依存している。
NLP の分野において、単語埋め込み空間は意味的関係をキャプチャし、単語埋め込みベクトル上で \textit{simple linear operation} を用いて情報検索を行うことができる。
ここでは、この線形性をもたらすネットワークデータの構造的性質を実証する。
ネットワーク表現がホモフレンドリになればなるほど、対応するネットワーク埋め込み空間を線形に分離し、より優れたダウンストリーム解析結果が得られることを示す。
そこで我々は,より線形に分離可能な空間にネットワークを埋め込むことにより,より優れたマイニングを可能にする,新しいグラフレットベースの手法を提案する。
ネットワークデータの構造に対する私たちの基本的な洞察は、その‘textit{\textbf{linear}}マイニングとエクスプロイトを可能にすることで、MLコミュニティは、複雑なネットワークデータの効率的かつ説明可能なマイニングを構築できるのです。
関連論文リスト
- SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Linear Mode Connectivity in Sparse Neural Networks [1.30536490219656]
合成データによるニューラルネットワークのプルーニングが、ユニークなトレーニング特性を持つスパースネットワークにどのように影響するかを考察する。
これらの特性は、蒸留データを適用した設定において、従来のIMPのパフォーマンスを最大150倍のトレーニングポイントで整合させる合成作業に繋がることがわかった。
論文 参考訳(メタデータ) (2023-10-28T17:51:39Z) - Exploring explicit coarse-grained structure in artificial neural
networks [0.0]
本稿では, ニューラルネットワークの階層的粗粒度構造を用いて, 性能を劣化させることなく, 解釈性を向上させることを提案する。
ひとつはTaylorNetと呼ばれるニューラルネットワークで、入力データから出力結果への一般的なマッピングを直接テイラー級数で近似することを目的としている。
もう1つはデータ蒸留のための新しいセットアップで、入力データセットのマルチレベル抽象化を実行し、新しいデータを生成することができる。
論文 参考訳(メタデータ) (2022-11-03T13:06:37Z) - Globally Gated Deep Linear Networks [3.04585143845864]
我々はGGDLN(Globally Gated Deep Linear Networks)を導入する。
有限幅熱力学極限におけるこれらのネットワークの一般化特性の正確な方程式を導出する。
我々の研究は、有限幅の非線形ネットワークの族における学習に関する最初の正確な理論解である。
論文 参考訳(メタデータ) (2022-10-31T16:21:56Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Parallel Machine Learning for Forecasting the Dynamics of Complex
Networks [0.0]
本稿では,大規模複雑ネットワークの力学を予測するための機械学習手法を提案する。
私たちは、関心のネットワークのトポロジを模倣する並列アーキテクチャを使用します。
論文 参考訳(メタデータ) (2021-08-27T06:06:41Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - EPINE: Enhanced Proximity Information Network Embedding [2.257737378757467]
本研究では,隣接行列における貴重な情報をより深く掘り下げることに尽力した。
同じ目的のもと、多くのNE法は隣接行列のパワーによって高次近接を計算する。
より直感的に高次近接性を再定義することを提案する。
論文 参考訳(メタデータ) (2020-03-04T15:57:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。