論文の概要: Machine Learning for Static and Single-Event Dynamic Complex Network Analysis
- arxiv url: http://arxiv.org/abs/2512.17577v1
- Date: Fri, 19 Dec 2025 13:44:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.407659
- Title: Machine Learning for Static and Single-Event Dynamic Complex Network Analysis
- Title(参考訳): 静的・単一イベント動的ネットワーク解析のための機械学習
- Authors: Nikolaos Nakis,
- Abstract要約: この論文の主な目的は、静的および単一イベント動的ネットワークのグラフ学習表現のための新しいアルゴリズムアプローチを開発することである。
我々は、ラテント・スペース・モデルや、より具体的には、ホモフィリー、推移性、バランス理論といった重要なネットワーク特性を自然に伝達するラテント・ディスタンス・モデルに焦点をあてる。
この論文は、ネットワーク構造の階層的表現、コミュニティの特徴付け、ネットワークの極端プロファイルの同定、時間的ネットワークの動的影響など、構造を意識したネットワーク表現を作ることを目的としている。
- 参考スコア(独自算出の注目度): 3.24890820102255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary objective of this thesis is to develop novel algorithmic approaches for Graph Representation Learning of static and single-event dynamic networks. In such a direction, we focus on the family of Latent Space Models, and more specifically on the Latent Distance Model which naturally conveys important network characteristics such as homophily, transitivity, and the balance theory. Furthermore, this thesis aims to create structural-aware network representations, which lead to hierarchical expressions of network structure, community characterization, the identification of extreme profiles in networks, and impact dynamics quantification in temporal networks. Crucially, the methods presented are designed to define unified learning processes, eliminating the need for heuristics and multi-stage processes like post-processing steps. Our aim is to delve into a journey towards unified network embeddings that are both comprehensive and powerful, capable of characterizing network structures and adeptly handling the diverse tasks that graph analysis offers.
- Abstract(参考訳): この論文の主な目的は、静的および単一イベント動的ネットワークのグラフ表現学習のための新しいアルゴリズムアプローチを開発することである。
このような方向において、我々はラテント・スペース・モデル(Latent Space Models)のファミリー、具体的には、ホモフィリ、推移性、バランス理論といった重要なネットワーク特性を自然に伝達するラテント・ディスタンス・モデル(Latent Distance Model)に焦点をあてる。
さらに,ネットワーク構造の階層的表現,コミュニティの特徴付け,ネットワークの極端プロファイルの同定,時間的ネットワークの動的定量化などを実現する。
重要なことは、提示された手法は統一的な学習プロセスを定義するように設計されており、ヒューリスティックスや後処理ステップのような多段階プロセスは不要である。
我々の目標は、包括的かつ強力で、ネットワーク構造を特徴付けることができ、グラフ解析が提供する多様なタスクを効果的に処理できる、統合されたネットワーク埋め込みへの旅を掘り下げることです。
関連論文リスト
- Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction [57.19302613163439]
モデル適応のための統一フレームワークとして,ニューラルネットワークの再プログラム可能性を導入する。
本稿では,4つの重要な側面にまたがる情報操作アプローチを分類する分類法を提案する。
残る技術的課題や倫理的考察も分析する。
論文 参考訳(メタデータ) (2025-06-05T05:42:27Z) - Identifying Sub-networks in Neural Networks via Functionally Similar Representations [41.028797971427124]
我々は、異なるサブネットワークの存在を調査し、ネットワークの理解を自動化するための一歩を踏み出した。
具体的には、ニューラルネットワーク内の機能的に類似した表現の概念に基づく、新しい自動化されたタスク非依存のアプローチについて検討する。
提案手法は,人間と計算コストを最小限に抑えたニューラルネットワークの動作に関する有意義な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-21T20:19:00Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - Leveraging advances in machine learning for the robust classification and interpretation of networks [0.0]
シミュレーションアプローチでは、Erd"os-R'enyiやSmall-worldのような適切なネットワーク生成モデルを選択する。
我々は、解釈可能な機械学習の進歩を利用して、様々なネットワーク属性に基づいて、生成モデルによってシミュレーションされたネットワークを分類する。
論文 参考訳(メタデータ) (2024-03-20T00:24:23Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - Piecewise-Velocity Model for Learning Continuous-time Dynamic Node
Representations [0.0]
連続時間動的ネットワーク表現のためのPiecewise-Veable Model (PiVeM)。
超低次元空間において、PiVeMはネットワーク構造と力学をうまく表現できることを示す。
リンク予測などの下流タスクでは、関連する最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-12-23T13:57:56Z) - The Neural Race Reduction: Dynamics of Abstraction in Gated Networks [12.130628846129973]
本稿では,情報フローの経路が学習力学に与える影響をスキーマ化するGated Deep Linear Networkフレームワークを紹介する。
正確な還元と、特定の場合において、学習のダイナミクスに対する正確な解が導出されます。
我々の研究は、ニューラルネットワークと学習に関する一般的な仮説を生み出し、より複雑なアーキテクチャの設計を理解するための数学的アプローチを提供する。
論文 参考訳(メタデータ) (2022-07-21T12:01:03Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。