論文の概要: Unsupervised Learning via Network-Aware Embeddings
- arxiv url: http://arxiv.org/abs/2309.10408v1
- Date: Tue, 19 Sep 2023 08:17:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:46:53.253006
- Title: Unsupervised Learning via Network-Aware Embeddings
- Title(参考訳): ネットワーク認識埋め込みによる教師なし学習
- Authors: Anne Sophie Riis Damstrup, Sofie Tosti Madsen, Michele Coscia
- Abstract要約: ノード属性間のネットワーク距離を推定することにより,ネットワーク対応の埋め込みを作成する方法を示す。
提案手法は完全オープンソースであり, 論文中のすべての結果を再現するためのデータとコードは利用可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data clustering, the task of grouping observations according to their
similarity, is a key component of unsupervised learning -- with real world
applications in diverse fields such as biology, medicine, and social science.
Often in these fields the data comes with complex interdependencies between the
dimensions of analysis, for instance the various characteristics and opinions
people can have live on a complex social network. Current clustering methods
are ill-suited to tackle this complexity: deep learning can approximate these
dependencies, but not take their explicit map as the input of the analysis. In
this paper, we aim at fixing this blind spot in the unsupervised learning
literature. We can create network-aware embeddings by estimating the network
distance between numeric node attributes via the generalized Euclidean
distance. Differently from all methods in the literature that we know of, we do
not cluster the nodes of the network, but rather its node attributes. In our
experiments we show that having these network embeddings is always beneficial
for the learning task; that our method scales to large networks; and that we
can actually provide actionable insights in applications in a variety of fields
such as marketing, economics, and political science. Our method is fully open
source and data and code are available to reproduce all results in the paper.
- Abstract(参考訳): データクラスタリングは、その類似性に応じて観察をグループ化するタスクであり、生物学、医学、社会科学といった様々な分野における現実世界の応用において、教師なし学習の重要な要素である。
これらの分野ではしばしば、データは分析の次元の間の複雑な相互依存、例えば、人々が複雑なソーシャルネットワークで生活できる様々な特性と意見が伴う。
ディープラーニングはこれらの依存関係を近似することができるが、分析のインプットとして明示的なマップを取ることはできない。
本稿では,教師なし学習文献におけるこの盲点の修正を目的とした。
一般化ユークリッド距離を用いて数値ノード属性間のネットワーク距離を推定することにより、ネットワークアウェア埋め込みを作成することができる。
私たちが知っている文献のすべてのメソッドとは違って、ネットワークのノードをクラスタするのではなく、そのノード属性をクラスタ化します。
実験では、これらのネットワーク埋め込みは、学習タスクに常に有用であること、大規模ネットワークにスケールすること、マーケティング、経済学、政治科学など、さまざまな分野の応用における実用的な洞察を実際に提供できること、などが示されている。
本手法は,完全オープンソースであり,論文中のすべての結果を再現するためのデータとコードである。
関連論文リスト
- Impact of network topology on the performance of Decentralized Federated
Learning [4.618221836001186]
分散機械学習は、インフラストラクチャの課題とプライバシの懸念に対処し、勢いを増している。
本研究では,3つのネットワークトポロジと6つのデータ分散手法を用いて,ネットワーク構造と学習性能の相互作用について検討する。
モデル集約時の希釈効果に起因する周辺ノードから中心ノードへの知識伝達の課題を強調した。
論文 参考訳(メタデータ) (2024-02-28T11:13:53Z) - The effect of network topologies on fully decentralized learning: a
preliminary investigation [2.9592782993171918]
分散機械学習システムでは、データは複数のデバイスまたはノードに分割され、それぞれが独自のデータを使用してローカルモデルをトレーニングする。
異なるタイプのトポロジが「知識の拡散」に与える影響について検討する。
具体的には、多かれ少なかれ連結されたノード(ハーブと葉)のこのプロセスにおける異なる役割を強調します。
論文 参考訳(メタデータ) (2023-07-29T09:39:17Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Graph Neural Networks: Methods, Applications, and Opportunities [1.2183405753834562]
本稿では,各学習環境におけるグラフニューラルネットワーク(GNN)の包括的調査について報告する。
各学習課題に対するアプローチは、理論的および経験的視点の両方から分析される。
さまざまなアプリケーションやベンチマークデータセットも提供されており、GNNの一般適用性に疑問が残るオープンな課題もある。
論文 参考訳(メタデータ) (2021-08-24T13:46:19Z) - A Comprehensive Survey on Community Detection with Deep Learning [93.40332347374712]
コミュニティは、ネットワーク内の他のコミュニティと異なるメンバーの特徴と接続を明らかにする。
この調査は、最先端の手法の様々なカテゴリをカバーする新しい分類法を考案し、提案する。
ディープニューラルネットワーク(Deep Neural Network)は、畳み込みネットワーク(convolutional network)、グラフアテンションネットワーク( graph attention network)、生成的敵ネットワーク(generative adversarial network)、オートエンコーダ(autoencoder)に分けられる。
論文 参考訳(メタデータ) (2021-05-26T14:37:07Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - Understanding the Limitations of Network Online Learning [5.925292989496618]
ノードクエリによって部分的に観測されたネットワークを完結させる学習の限界について検討する。
我々はこのクエリ処理をNetwork Online Learningと呼び、NOL*と呼ばれるアルゴリズム群を提示する。
論文 参考訳(メタデータ) (2020-01-09T13:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。