論文の概要: CHIEF: Clustering with Higher-order Motifs in Big Networks
- arxiv url: http://arxiv.org/abs/2204.02656v1
- Date: Wed, 6 Apr 2022 08:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:32:03.750491
- Title: CHIEF: Clustering with Higher-order Motifs in Big Networks
- Title(参考訳): チーフ:大規模ネットワークにおける高次モチーフによるクラスタリング
- Authors: Feng Xia, Shuo Yu, Chengfei Liu, Ivan Lee
- Abstract要約: 本稿では、標準加速度CHIEF-STと近似加速度CHIEF-APの2つのモチーフクラスタリング手法からなるソリューションを提案する。
どちらのアルゴリズムも、ターゲットネットワーク内の最大kエッジ接続部分グラフを見つけ、ネットワークスケールを小さくし、クラスタリングに高次モチーフを用いる。
CHIEFの貢献は,(1)大規模ネットワークにおけるモチーフクラスタリングの効率化,(2)高次モチーフの意義の検証である。
- 参考スコア(独自算出の注目度): 15.220556540134272
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clustering a group of vertices in networks facilitates applications across
different domains, such as social computing and Internet of Things. However,
challenges arises for clustering networks with increased scale. This paper
proposes a solution which consists of two motif clustering techniques: standard
acceleration CHIEF-ST and approximate acceleration CHIEF-AP. Both algorithms
first find the maximal k-edge-connected subgraphs within the target networks to
lower the network scale, then employ higher-order motifs in clustering. In the
first procedure, we propose to lower the network scale by optimizing the
network structure with maximal k-edge-connected subgraphs. For CHIEF-ST, we
illustrate that all target motifs will be kept after this procedure when the
minimum node degree of the target motif is equal or greater than k. For
CHIEF-AP, we prove that the eigenvalues of the adjacency matrix and the
Laplacian matrix are relatively stable after this step. That is, CHIEF-ST has
no influence on motif clustering, whereas CHIEF-AP introduces limited yet
acceptable impact. In the second procedure, we employ higher-order motifs,
i.e., heterogeneous four-node motifs clustering in higher-order dense networks.
The contributions of CHIEF are two-fold: (1) improved efficiency of motif
clustering for big networks; (2) verification of higher-order motif
significance. The proposed solutions are found to outperform baseline
approaches according to experiments on real and synthetic networks, which
demonstrates CHIEF's strength in large network analysis. Meanwhile,
higher-order motifs are proved to perform better than traditional triangle
motifs in clustering.
- Abstract(参考訳): ネットワーク内の頂点のグループのクラスタリングは、ソーシャルコンピューティングやモノのインターネットなど、さまざまなドメインのアプリケーションを促進する。
しかし、スケールが大きくなるクラスタリングネットワークには課題が生じる。
本稿では,標準加速度法と近似加速度法という2つのモチーフクラスタリング技術からなる解を提案する。
どちらのアルゴリズムも、まずターゲットネットワーク内の最大kエッジ接続部分グラフを見つけ、ネットワークスケールを小さくし、クラスタリングに高次モチーフを用いる。
第1の手順では,ネットワーク構造を最大kエッジ接続部分グラフで最適化することにより,ネットワーク規模を小さくすることを提案する。
chief-st の場合、対象モチーフの最小ノード次数が k 以上であれば、この手順の後にすべての対象モチーフが保持されることを示す。
CHIEF-APの場合、隣接行列とラプラシア行列の固有値は、この段階以降比較的安定であることが証明される。
すなわち、CHIEF-STはモチーフクラスタリングに影響を与えないが、CHIEF-APは限定的かつ許容可能な影響をもたらす。
第2の手順では、高次密集ネットワークにおいて、高次モチーフ、すなわち不均質な4ノードモチーフをクラスタリングする。
CHIEFの貢献は,(1)大規模ネットワークにおけるモチーフクラスタリングの効率化,(2)高次モチーフの重要性の検証である。
提案手法は,大規模ネットワーク解析におけるチーフの強みを示す実ネットワークと合成ネットワークの実験により,ベースラインアプローチを上回った。
一方、高次モチーフはクラスタリングにおける従来の三角形モチーフよりも優れていることが証明されている。
関連論文リスト
- Hierarchical Multi-Marginal Optimal Transport for Network Alignment [52.206006379563306]
マルチネットワークアライメントは,複数ネットワーク上での協調学習に必須の要件である。
マルチネットワークアライメントのための階層型マルチマージ最適トランスポートフレームワークHOTを提案する。
提案するHOTは,有効性とスケーラビリティの両面で,最先端の大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-10-06T02:35:35Z) - Heterogeneous Tri-stream Clustering Network [19.020799713145056]
本稿ではヘテロジニアス三ストリームクラスタリングネットワーク(HTCN)と呼ばれる新しいエンドツーエンドのディープクラスタリング手法を提案する。
HTCNは2つの重み付けオンラインネットワークとターゲットネットワークを含む3つの主要コンポーネントで構成されている。
4つの挑戦的なイメージデータセットの結果は、最先端のディープクラスタリングアプローチよりもHTCNの方が優れていることを示している。
論文 参考訳(メタデータ) (2023-01-11T13:15:54Z) - DeepCluE: Enhanced Image Clustering via Multi-layer Ensembles in Deep
Neural Networks [53.88811980967342]
本稿では,Ensembles (DeepCluE) を用いたDeep Clusteringを提案する。
ディープニューラルネットワークにおける複数のレイヤのパワーを活用することで、ディープクラスタリングとアンサンブルクラスタリングのギャップを埋める。
6つの画像データセットの実験結果から、最先端のディープクラスタリングアプローチに対するDeepCluEの利点が確認されている。
論文 参考訳(メタデータ) (2022-06-01T09:51:38Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Unifying Homophily and Heterophily Network Transformation via Motifs [20.45207959265955]
高階近接(HOP)は、ほとんどのネットワーク埋め込み方法の基本です。
H2NT(homophily and heterophliy Protection Network Transformation)を提案し,ホモフィとヘテロフィアを柔軟に統一するHOPを捕捉する。
H2NTは、後者のメソッドを変更することなく、既存のネットワーク埋め込みメソッドと統合するためのエンハンサーとして使用できます。
論文 参考訳(メタデータ) (2020-12-21T15:03:18Z) - KCoreMotif: An Efficient Graph Clustering Algorithm for Large Networks
by Exploiting k-core Decomposition and Motifs [6.1734015475373765]
スペクトルクラスタリングは、グラフ構造化データ(ネットワーク)の最も一般的なアルゴリズムの1つである
そこで本稿では,kコア分解とモチーフを利用したグラフクラスタリングアルゴリズムKCoreMotifを提案する。
提案したグラフクラスタリングアルゴリズムは,大規模ネットワークに対して正確かつ効率的であることを示す。
論文 参考訳(メタデータ) (2020-08-21T12:21:05Z) - Motif-Based Spectral Clustering of Weighted Directed Networks [6.1448102196124195]
クラスタリングは、様々な分野の応用において、ネットワーク分析に不可欠な技術である。
一つのアプローチは、モチーフ隣接行列を用いて高次構造を捕捉し、クラスタ化することである。
本稿では,重み付きネットワーク上での隣接行列のモチーフとして,新しい,計算に有用な行列式を提案する。
論文 参考訳(メタデータ) (2020-04-02T22:45:28Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。