論文の概要: Identifiability and consistency of network inference using the hub model
and variants
- arxiv url: http://arxiv.org/abs/2004.09709v3
- Date: Wed, 14 Oct 2020 23:52:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:41:16.278356
- Title: Identifiability and consistency of network inference using the hub model
and variants
- Title(参考訳): hubモデルと変種を用いたネットワーク推論の識別性と一貫性
- Authors: Yunpeng Zhao, Peter Bickel and Charles Weko
- Abstract要約: ZhaoとWekoはハブモデルと呼ばれるモデルベースのアプローチを提案し、グループ化行動から暗黙のネットワークを推論する。
本稿では,ハブモデルパラメータの同定可能性と軽度条件下での推定について述べる。
本稿では、各ノードが自然に他のノードから独立して現れるようなハブレス群を許容するモデル成分を導入することにより、ハブモデルを一般化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical network analysis primarily focuses on inferring the parameters of
an observed network. In many applications, especially in the social sciences,
the observed data is the groups formed by individual subjects. In these
applications, the network is itself a parameter of a statistical model. Zhao
and Weko (2019) propose a model-based approach, called the hub model, to infer
implicit networks from grouping behavior. The hub model assumes that each
member of the group is brought together by a member of the group called the
hub. The hub model belongs to the family of Bernoulli mixture models.
Identifiability of parameters is a notoriously difficult problem for Bernoulli
mixture models. This paper proves identifiability of the hub model parameters
and estimation consistency under mild conditions. Furthermore, this paper
generalizes the hub model by introducing a model component that allows hubless
groups in which individual nodes spontaneously appear independent of any other
individual. We refer to this additional component as the null component. The
new model bridges the gap between the hub model and the degenerate case of the
mixture model -- the Bernoulli product. Identifiability and consistency are
also proved for the new model. Numerical studies are provided to demonstrate
the theoretical results.
- Abstract(参考訳): 統計的ネットワーク分析は主に、観測されたネットワークのパラメータを推測することに焦点を当てる。
多くの応用、特に社会科学において、観測されたデータは個々の被験者によって形成されたグループである。
これらのアプリケーションでは、ネットワーク自体が統計モデルのパラメータである。
Zhao and Weko (2019) は、グループ化行動から暗黙のネットワークを推論するハブモデルと呼ばれるモデルベースのアプローチを提案する。
ハブモデルは、グループの各メンバーがハブと呼ばれるグループのメンバーによってまとめられると仮定する。
ハブモデルはベルヌーイ混合モデルの族に属する。
パラメータの識別性はベルヌーイ混合モデルにとって非常に難しい問題である。
本稿では,ハブモデルパラメータの同定可能性と軽度条件下での推定一貫性を示す。
さらに、各ノードが他の個人とは独立に自発的に現れるハブレス群を可能にするモデルコンポーネントを導入することにより、ハブモデルを一般化する。
この追加コンポーネントをnullコンポーネントと呼んでいます。
この新しいモデルは、ハブモデルと混合モデルの縮退した場合、ベルヌーイ積の間のギャップを橋渡しする。
新しいモデルでは、識別可能性と一貫性も証明されている。
理論的結果を示すための数値的研究が提供されている。
関連論文リスト
- Amortized Bayesian Mixture Models [1.3976439685325095]
本稿では,混合モデルに適したABI(Amortized Bayesian Inference)の拡張について紹介する。
我々は、後部をパラメータの分布と(カテゴリー的な)混合指標の分布に分解し、生成ニューラルネットワークの組み合わせを利用できるようにする。
提案フレームワークは、独立混合モデルと依存混合モデルの両方に対応し、フィルタリングと平滑化を可能にする。
論文 参考訳(メタデータ) (2025-01-17T14:51:03Z) - Understanding Parameter Sharing in Transformers [53.75988363281843]
トランスフォーマーに関するこれまでの研究は、異なるレイヤでパラメータを共有することに集中しており、モデルの深さを増大させることで、限られたパラメータを持つモデルの性能を向上させることができる。
このアプローチの成功は, モデル複雑性の増加により, ごく一部に過ぎず, 収束性の向上に大きく寄与することを示す。
8つの機械翻訳タスクの実験結果から,パラメータ共有モデルのモデル複雑性を半分に抑えて,我々のモデルが競合性能を達成することが示された。
論文 参考訳(メタデータ) (2023-06-15T10:48:59Z) - Simultaneous identification of models and parameters of scientific simulators [7.473394133229206]
本研究は,本質的なモデルコンポーネントを特定するためのシミュレーションベースの推論フレームワークを開発する。
いかなる構成シミュレータにも、評価を必要とせずに適用することができる。
非識別のモデルコンポーネントとパラメータを明らかにします。
論文 参考訳(メタデータ) (2023-05-24T14:06:02Z) - A Class of Dependent Random Distributions Based on Atom Skipping [2.3258287344692676]
我々は,グループ化されたデータに対するベイズ的非パラメトリックモデルであるPlaid Atoms Model (PAM)を提案する。
PAMは、グループ間で重なり合うクラスタと非重なり合うクラスタリングパターンを生成する。
論文 参考訳(メタデータ) (2023-04-28T16:18:43Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Linear Connectivity Reveals Generalization Strategies [54.947772002394736]
微調整されたモデルのいくつかは、それらの間の線形経路における損失を増大させる大きな障壁を持つ。
テスト損失面上で線形に接続されているが、クラスタ外のモデルから切り離されている異なるモデルのクラスタが見つかる。
我々の研究は、損失面の幾何学がモデルを異なる関数へと導く方法を示している。
論文 参考訳(メタデータ) (2022-05-24T23:43:02Z) - Siamese Neural Network with Joint Bayesian Model Structure for Speaker
Verification [54.96267179988487]
本稿では,話者検証のための新しいサイムズニューラルネットワーク(SiamNN)を提案する。
サンプルの結合分布は、JB(Joint Bayesian)に基づく生成モデルに基づいて最初に定式化される。
話者照合のための二項識別タスクとして,ペアワイズしたサンプルを用いてモデルパラメータを訓練する。
論文 参考訳(メタデータ) (2021-04-07T09:17:29Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Tractably Modelling Dependence in Networks Beyond Exchangeability [0.0]
本研究では, ネットワークの推定, クラスタリング, 次数挙動について検討する。
このことは、一般的には交換不能なネットワークデータをブロックモデルで記述できる理由と方法を探る。
論文 参考訳(メタデータ) (2020-07-28T17:13:59Z) - A Compact Gated-Synapse Model for Neuromorphic Circuits [77.50840163374757]
このモデルは、ニューロモルフィック回路のコンピュータ支援設計への統合を容易にするためにVerilog-Aで開発された。
モデルの振る舞い理論は、デフォルトパラメータ設定の完全なリストとともに詳細に記述されている。
論文 参考訳(メタデータ) (2020-06-29T18:22:11Z) - A Bootstrap-based Method for Testing Network Similarity [0.0]
本稿では,一致したネットワーク推論問題について検討する。
目的は、共通のノードセットで定義された2つのネットワークが、特定の類似性を示すかどうかを決定することである。
類似性の2つの概念は、 (i) 等価性、すなわち、ネットワークが同じランダムグラフモデルから生じるかどうかをテストすること、 (ii) スケーリング、すなわち、それらの確率が未知のスケーリング定数に対して比例するかどうかをテストすることである。
論文 参考訳(メタデータ) (2019-11-15T20:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。