論文の概要: Large Scale Community-Aware Network Generation
- arxiv url: http://arxiv.org/abs/2511.19717v1
- Date: Mon, 24 Nov 2025 21:25:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.168278
- Title: Large Scale Community-Aware Network Generation
- Title(参考訳): 大規模コミュニティアウェアネットワーク生成
- Authors: Vikram Ramavarapu, João Alfredo Cardoso Lamy, Mohammad Dindoost, David A. Bader,
- Abstract要約: ネットワーククラスタリング(ネットワーククラスタリング)は、ネットワーク内の潜在コミュニティ構造を特定するために用いられる。
本稿では,RECCS+とRECCS++の2つの拡張版を示す。
この新たなパフォーマンスにより、RECCS++は1億以上のノードと20億近いエッジを持つネットワークに拡張できるようになった。
- 参考スコア(独自算出の注目度): 0.11666234644810891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Community detection, or network clustering, is used to identify latent community structure in networks. Due to the scarcity of labeled ground truth in real-world networks, evaluating these algorithms poses significant challenges. To address this, researchers use synthetic network generators that produce networks with ground-truth community labels. RECCS is one such algorithm that takes a network and its clustering as input and generates a synthetic network through a modular pipeline. Each generated ground truth cluster preserves key characteristics of the corresponding input cluster, including connectivity, minimum degree, and degree sequence distribution. The output consists of a synthetically generated network, and disjoint ground truth cluster labels for all nodes. In this paper, we present two enhanced versions: RECCS+ and RECCS++. RECCS+ maintains algorithmic fidelity to the original RECCS while introducing parallelization through an orchestrator that coordinates algorithmic components across multiple processes and employs multithreading. RECCS++ builds upon this foundation with additional algorithmic optimizations to achieve further speedup. Our experimental results demonstrate that RECCS+ and RECCS++ achieve speedups of up to 49x and 139x respectively on our benchmark datasets, with RECCS++'s additional performance gains involving a modest accuracy tradeoff. With this newfound performance, RECCS++ can now scale to networks with over 100 million nodes and nearly 2 billion edges.
- Abstract(参考訳): ネットワーククラスタリング(ネットワーククラスタリング)は、ネットワーク内の潜在コミュニティ構造を特定するために用いられる。
実世界のネットワークにおけるラベル付き基底真理の不足により、これらのアルゴリズムの評価は重大な課題となる。
これを解決するために、研究者たちは、地道なコミュニティラベルを持つネットワークを生成する合成ネットワークジェネレータを使用している。
RECCSは、ネットワークとそのクラスタリングを入力として、モジュールパイプラインを介して合成ネットワークを生成するアルゴリズムである。
各生成地真実クラスタは、接続性、最小度、次数列分布を含む、対応する入力クラスタのキー特性を保存する。
出力は、合成的に生成されたネットワークと、すべてのノードに対して非結合な基底真理クラスタラベルから構成される。
本稿では,RECCS+とRECCS++の2つの拡張版を提案する。
RECCS+は元のRECCSに対するアルゴリズムの忠実さを維持しつつ、複数のプロセスにまたがってアルゴリズムコンポーネントを調整し、マルチスレッドを使用するオーケストレータを通じて並列化を導入している。
RECCS++はこの基盤の上に構築されており、さらなるスピードアップを達成するためのアルゴリズム最適化が加えられている。
実験の結果、RECCS+とRECCS++は、ベンチマークデータセットでそれぞれ最大49倍、139倍のスピードアップを達成した。
この新たなパフォーマンスにより、RECCS++は1億以上のノードと20億近いエッジを持つネットワークに拡張できるようになった。
関連論文リスト
- Dextr: Zero-Shot Neural Architecture Search with Singular Value Decomposition and Extrinsic Curvature [8.219278958506592]
本稿では,ラベル付きデータの計算要求を省略するゼロコストプロキシを提案する。
提案手法は,1つのラベルのないデータサンプルのみを用いて,テストデータ上でのネットワーク性能の正確な予測を可能にする。
論文 参考訳(メタデータ) (2025-08-18T14:52:14Z) - A Lightweight Deep Learning-based Model for Ranking Influential Nodes in Complex Networks [1.03590082373586]
1D-CGSは、1次元畳み込みニューラルネットワーク(1D-CNN)の速度とGraphSAGEのトポロジ的表現能力を統合し、効率的なノードランク付けを実現する軽量で効果的なハイブリッドモデルである。
1D-CGSは、非常に高速な実行環境で動作しながら、従来の集中度尺度や近年のディープラーニングモデルよりも格付け精度が優れていることを示す。
論文 参考訳(メタデータ) (2025-07-25T22:45:56Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - CONet: Channel Optimization for Convolutional Neural Networks [33.58529066005248]
畳み込みニューラルネットワーク(CNN)におけるチャネルサイズ最適化の検討
ネットワーク層をまたいだCNNのチャネルサイズを自動的に最適化する,効率的な動的スケーリングアルゴリズムであるConetを導入します。
CIFAR10/100およびImageNetデータセット上で実験を行い、ConetがResNet、DARTS、DARTS+空間で探索された効率的で正確なアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2021-08-15T21:48:25Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Sequential End-to-end Network for Efficient Person Search [7.3658840620058115]
人物検出と人物再識別(re-ID)を共同で解決することを目的とした人物探索
既存の研究は、Faster R-CNNに基づくエンドツーエンドネットワークを設計している。
優れた特徴を抽出するためのシーケンシャルエンドツーエンドネットワーク(SeqNet)を提案する。
論文 参考訳(メタデータ) (2021-03-18T10:28:24Z) - Self-grouping Convolutional Neural Networks [30.732298624941738]
本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
論文 参考訳(メタデータ) (2020-09-29T06:24:32Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。