論文の概要: Inference in Spreading Processes with Neural-Network Priors
- arxiv url: http://arxiv.org/abs/2509.02073v1
- Date: Tue, 02 Sep 2025 08:24:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.956872
- Title: Inference in Spreading Processes with Neural-Network Priors
- Title(参考訳): ニューラルネットワークプリミティブを用いたスプレッドプロセスの推論
- Authors: Davide Ghio, Fabrizio Boncoraglio, Lenka Zdeborová,
- Abstract要約: ノードの初期状態が単純なニューラルネットワークによって与えられるモデルについて検討する。
ベイジアン・フレームワーク内では、そのようなニューラル・ネットワークの事前情報が初期状態の回復をいかに促進するかを研究する。
- 参考スコア(独自算出の注目度): 11.93069441086844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stochastic processes on graphs are a powerful tool for modelling complex dynamical systems such as epidemics. A recent line of work focused on the inference problem where one aims to estimate the state of every node at every time, starting from partial observation of a subset of nodes at a subset of times. In these works, the initial state of the process was assumed to be random i.i.d. over nodes. Such an assumption may not be realistic in practice, where one may have access to a set of covariate variables for every node that influence the initial state of the system. In this work, we will assume that the initial state of a node is an unknown function of such covariate variables. Given that functions can be represented by neural networks, we will study a model where the initial state is given by a simple neural network -- notably the single-layer perceptron acting on the known node-wise covariate variables. Within a Bayesian framework, we study how such neural-network prior information enhances the recovery of initial states and spreading trajectories. We derive a hybrid belief propagation and approximate message passing (BP-AMP) algorithm that handles both the spreading dynamics and the information included in the node covariates, and we assess its performance against the estimators that either use only the spreading information or use only the information from the covariate variables. We show that in some regimes, the model can exhibit first-order phase transitions when using a Rademacher distribution for the neural-network weights. These transitions create a statistical-to-computational gap where even the BP-AMP algorithm, despite the theoretical possibility of perfect recovery, fails to achieve it.
- Abstract(参考訳): グラフ上の確率過程は、疫病のような複雑な力学系をモデル化するための強力なツールである。
最近の研究は、ノードのサブセットの部分的な観察から始まり、各ノードの状態を毎回推定することを目的とした推論問題に焦点が当てられている。
これらの研究において、プロセスの初期状態はノード上のランダムな i.d. であると仮定された。
そのような仮定は実際には現実的ではなく、システムの初期状態に影響を与える全てのノードに対して共変変数の集合にアクセスすることができる。
本研究では、ノードの初期状態がそのような共変変数の未知の関数であると仮定する。
関数がニューラルネットワークで表現できることを考えると、初期状態が単純なニューラルネットワークによって与えられるモデル、特に既知のノードワイドな共変量変数に作用する単層パーセプトロンについて検討する。
ベイジアン・フレームワーク内では、そのようなニューラル・ネットワークの先行情報が初期状態の回復と軌道の拡散をいかに促進するかを研究する。
我々は,分散ダイナミクスとノード共変量に含まれる情報の両方を扱うハイブリッド信念伝搬と近似メッセージパッシング(BP-AMP)アルゴリズムを導出し,その性能を,分散情報のみを使用するか,共変量変数からの情報のみを使用する推定器に対して評価する。
ニューラルネットワーク重みに対するRademacher分布を用いることで,モデルが一階相転移を示すことを示す。
これらの遷移は統計計算のギャップを生じさせ、BP-AMPアルゴリズムでさえ、理論上は完全に回復する可能性はあるものの、それを達成できない。
関連論文リスト
- Out-of-Distribution Detection using Neural Activation Prior [15.673290330356194]
アウト・オブ・ディストリビューション検出(OOD)は、機械学習モデルを現実世界にデプロイする上で重要な技術である。
OOD検出のためのシンプルで効果的なニューラルアクティベーションプリミティブ(NAP)を提案する。
提案手法は,CIFARベンチマークとImageNetデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-28T08:45:07Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural-prior stochastic block model [0.0]
我々は,コミュニティを,逆ではなくノード属性によって決定されるものとしてモデル化することを提案する。
本稿では,信念伝播と近似メッセージパッシングを組み合わせた統計物理に基づくアルゴリズムを提案する。
提案したモデルとアルゴリズムは理論とアルゴリズムのベンチマークとして利用できる。
論文 参考訳(メタデータ) (2023-03-17T14:14:54Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Probabilistic Numeric Convolutional Neural Networks [80.42120128330411]
画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
論文 参考訳(メタデータ) (2020-10-21T10:08:21Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。