論文の概要: Time-invariant degree growth in preferential attachment network models
- arxiv url: http://arxiv.org/abs/2001.08132v1
- Date: Wed, 22 Jan 2020 16:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 07:08:03.991632
- Title: Time-invariant degree growth in preferential attachment network models
- Title(参考訳): 優先アタッチメントネットワークモデルにおける時間不変度成長
- Authors: Jun Sun, Mat\'u\v{s} Medo, Steffen Staab
- Abstract要約: 本稿では,ノードの適合度と老化を優先的に組み合わせたネットワークモデルのクラスにおける次数ダイナミクスについて検討する。
本研究は,ネットワークの一様成長と指数的成長という,2つの特別なネットワーク成長形態に対してのみ自己整合性を示す。
- 参考スコア(独自算出の注目度): 8.929656934088989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Preferential attachment drives the evolution of many complex networks. Its
analytical studies mostly consider the simplest case of a network that grows
uniformly in time despite the accelerating growth of many real networks.
Motivated by the observation that the average degree growth of nodes is
time-invariant in empirical network data, we study the degree dynamics in the
relevant class of network models where preferential attachment is combined with
heterogeneous node fitness and aging. We propose a novel analytical framework
based on the time-invariance of the studied systems and show that it is
self-consistent only for two special network growth forms: the uniform and
exponential network growth. Conversely, the breaking of such time-invariance
explains the winner-takes-all effect in some model settings, revealing the
connection between the Bose-Einstein condensation in the Bianconi-Barab\'{a}si
model and similar gelation in superlinear preferential attachment. Aging is
necessary to reproduce realistic node degree growth curves and can prevent the
winner-takes-all effect under weak conditions. Our results are verified by
extensive numerical simulations.
- Abstract(参考訳): 優先アタッチメントは多くの複雑なネットワークの進化を促進する。
その分析研究は、多くの実ネットワークの成長が加速しているにもかかわらず、時間とともに均一に成長するネットワークの最も単純なケースを主に考慮している。
本研究では,ノードの平均次数成長が経験的ネットワークデータにおいて時間不変であることから,ノードのアタッチメントが不均一なノードの適合性や老化と組み合わせられるネットワークモデルの関連するクラスにおける次数ダイナミクスについて検討する。
本研究では,実験システムの時間不変性に基づく新しい解析フレームワークを提案するとともに,ネットワークの成長形式である一様および指数的ネットワーク成長のみに対して自己整合性を示す。
逆に、そのような時間不変性の破れは、いくつかのモデル設定におけるすべての勝者効果を説明し、ビアンコーニ・バラブ・マナシモデルにおけるボース=アインシュタイン凝縮と超線型優先アタッチメントにおける同様のゲル化との接続を明らかにする。
老化は、現実的なノード度成長曲線を再現するために必要であり、弱い条件下での全ての勝利効果を防止できる。
本結果は広範囲な数値シミュレーションにより検証した。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Learning the mechanisms of network growth [42.1340910148224]
動的ネットワークのための新しいモデル選択法を提案する。
データは9つの最先端のランダムグラフモデルをシミュレートすることによって生成される。
提案された機能は、計算しやすく、分析的に抽出可能で、解釈可能である。
論文 参考訳(メタデータ) (2024-03-31T20:38:59Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - From Cubes to Networks: Fast Generic Model for Synthetic Networks
Generation [15.070865479516696]
本稿では,立方体を相互関連ネットワークに変換する高速汎用モデルであるFGMを提案する。
本研究では,FGMが現実のネットワークとより密に整合した典型的なパターンを示すネットワークを,コスト効率よく生成可能であることを示す。
その結果、FGMは入力摂動に耐性を示し、一貫した微細な特性を持つネットワークを生成する。
論文 参考訳(メタデータ) (2022-11-05T04:24:20Z) - DAMNETS: A Deep Autoregressive Model for Generating Markovian Network
Time Series [6.834250594353335]
ネットワーク時系列生成モデル(動的グラフとも呼ばれる)は疫学、生物学、経済学などの分野において大きな可能性を秘めている。
本稿では,ネットワーク時系列のスケーラブルな深層生成モデルであるDAMNETSを紹介する。
論文 参考訳(メタデータ) (2022-03-28T18:14:04Z) - Multi-scale Feature Learning Dynamics: Insights for Double Descent [71.91871020059857]
一般化誤差の「二重降下」現象について検討する。
二重降下は、異なるスケールで学習される異なる特徴に起因する可能性がある。
論文 参考訳(メタデータ) (2021-12-06T18:17:08Z) - Stochastic Recurrent Neural Network for Multistep Time Series
Forecasting [0.0]
我々は、時系列予測のための繰り返しニューラルネットワークの適応を提案するために、深部生成モデルと状態空間モデルの概念の進歩を活用する。
私たちのモデルは、すべての関連情報が隠された状態でカプセル化されるリカレントニューラルネットワークのアーキテクチャ的な動作を保ち、この柔軟性により、モデルはシーケンシャルモデリングのために任意のディープアーキテクチャに簡単に統合できます。
論文 参考訳(メタデータ) (2021-04-26T01:43:43Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。