論文の概要: QuickCent: a fast and frugal heuristic for harmonic centrality
estimation on scale-free networks
- arxiv url: http://arxiv.org/abs/2303.00927v1
- Date: Thu, 2 Mar 2023 03:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:19:11.477592
- Title: QuickCent: a fast and frugal heuristic for harmonic centrality
estimation on scale-free networks
- Title(参考訳): QuickCent: スケールフリーネットワーク上での高調波中心性推定のための高速かつフレジャルなヒューリスティック
- Authors: Francisco Plana, Andr\'es Abeliuk, Jorge P\'erez
- Abstract要約: 本稿では,ネットワーク集中度指数を近似する簡易かつ迅速な手法を提案する。
私たちのアプローチはQuickCentと呼ばれ、いわゆる高速かつ軽快な推論にインスパイアされています。
我々はQuickCentが精度で競争力のある見積もりをすることができることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple and quick method to approximate network centrality
indexes. Our approach, called QuickCent, is inspired by so-called fast and
frugal heuristics, which are heuristics initially proposed to model some human
decision and inference processes. The centrality index that we estimate is the
harmonic centrality, which is a measure based on shortest-path distances, so
infeasible to compute on large networks. We compare QuickCent with known
machine learning algorithms on synthetic data generated with preferential
attachment, and some empirical networks. Our experiments show that QuickCent is
able to make estimates that are competitive in accuracy with the best
alternative methods tested, either on synthetic scale-free networks or
empirical networks. QuickCent has the feature of achieving low error variance
estimates, even with a small training set. Moreover, QuickCent is comparable in
efficiency -- accuracy and time cost -- to those produced by more complex
methods. We discuss and provide some insight into how QuickCent exploits the
fact that in some networks, such as those generated by preferential attachment,
local density measures such as the in-degree, can be a proxy for the size of
the network region to which a node has access, opening up the possibility of
approximating centrality indices based on size such as the harmonic centrality.
Our initial results show that simple heuristics and biologically inspired
computational methods are a promising line of research in the context of
network measure estimations.
- Abstract(参考訳): ネットワーク集中度指数を近似する単純かつ迅速な手法を提案する。
私たちのアプローチはQuickCentと呼ばれ、人間の意思決定と推論のプロセスをモデル化するために最初に提案されたヒューリスティックな、いわゆる高速かつフリガルなヒューリスティックスにインスパイアされています。
我々が見積もっている中心性指数は調和中心性であり、これは最短パス距離に基づく測度であり、大網での計算が不可能である。
我々はQuickCentと、優先的なアタッチメントといくつかの経験的ネットワークで生成された合成データに関する既知の機械学習アルゴリズムを比較した。
我々の実験によると、QuickCentは、合成スケールフリーネットワークや経験的ネットワークでテストされた最良の代替手法と、精度で競合する推定を行うことができる。
QuickCentには、小さなトレーニングセットであっても、低いエラー分散推定を達成する機能がある。
さらに、quickcentは、より複雑な方法で生成されたものと、効率 -- 精度と時間コスト -- で比較できる。
我々は,QuickCentが優先的なアタッチメントによって生成されたようなネットワークでは,ノードがアクセス可能なネットワーク領域のサイズのプロキシとなり,高調波中心性などのサイズに基づく集中度指標の近似が可能となるという事実を,QuickCentがどのように活用するかを議論し,考察する。
最初の結果は、単純なヒューリスティックスと生物学的にインスパイアされた計算手法が、ネットワーク測度推定の文脈における有望な研究ラインであることを示している。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - Distributed Cooperative AI for Large-Scale Eigenvalue Computations Using Neural Networks [0.0]
本稿では,分散協調型ニューラルネットワークを用いた固有値計算手法を提案する。
我々のアルゴリズムは、複数の自律エージェントが大きな行列の最小固有値を協調的に推定することを可能にする。
論文 参考訳(メタデータ) (2024-09-10T09:26:55Z) - Center Focusing Network for Real-Time LiDAR Panoptic Segmentation [58.1194137706868]
高精度かつリアルタイムなLiDARパノプティブセグメンテーションを実現するために、CFNet(Central Focus Network)を導入した。
CFFEは、元のLiDARポイントと仮想インスタンスセンターの関係を明確に理解するために提案されている。
我々のCFNetは、すべての既存のメソッドを大きなマージンで上回り、最も効率的なメソッドよりも1.6倍高速です。
論文 参考訳(メタデータ) (2023-11-16T01:52:11Z) - ONBRA: Rigorous Estimation of the Temporal Betweenness Centrality in
Temporal Networks [0.76146285961466]
ネットワーク分析では、ノード間の重心性はそのノードを訪れる最短経路のごく一部を非公式にキャプチャする。
時間ネットワークにおけるノードの時間差集中度値を推定するための最初のサンプリングベース近似アルゴリズムであるONBRAを提案する。
論文 参考訳(メタデータ) (2022-03-01T17:54:10Z) - Fast and Robust Sparsity Learning over Networks: A Decentralized
Surrogate Median Regression Approach [10.850336820582678]
本稿では、分散化空間学習問題を効率的に解くために、分散化代理中央回帰法(deSMR)を提案する。
提案アルゴリズムは,簡単な実装で線形収束率を満足する。
また,スパース・サポート・リカバリの理論的結果も確立した。
論文 参考訳(メタデータ) (2022-02-11T08:16:01Z) - Hyperdimensional Computing for Efficient Distributed Classification with
Randomized Neural Networks [5.942847925681103]
本研究では,データを中央に保存することも共有することもできない状況下で利用できる分散分類について検討する。
ローカルな分類器を他のエージェントと共有する場合に、ロッキーな圧縮アプローチを適用することにより、分散分類のためのより効率的な解を提案する。
論文 参考訳(メタデータ) (2021-06-02T01:33:56Z) - Straggler-Resilient Federated Learning: Leveraging the Interplay Between
Statistical Accuracy and System Heterogeneity [57.275753974812666]
フェデレーション学習は、データをローカルに保持しながら、クライアントのネットワークに分散したデータサンプルから学習する。
本稿では,学習手順を高速化するために,クライアントデータの統計的特徴を取り入れてクライアントを適応的に選択する,ストラグラー・レジリエントなフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2020-12-28T19:21:14Z) - Fast Network Community Detection with Profile-Pseudo Likelihood Methods [19.639557431997037]
ブロックモデル確率関数に適合するほとんどのアルゴリズムは、大規模ネットワークには拡張できない。
本稿では,行ラベルと列ラベルを疎結合する新たな可能性的アプローチを提案する。
本手法は,ブロックモデルにおいて,コミュニティの強い一貫した推定値を提供することを示す。
論文 参考訳(メタデータ) (2020-11-01T23:40:26Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。