論文の概要: Selection of Summary Statistics for Network Model Choice with
Approximate Bayesian Computation
- arxiv url: http://arxiv.org/abs/2101.07766v1
- Date: Tue, 19 Jan 2021 18:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 11:10:46.811960
- Title: Selection of Summary Statistics for Network Model Choice with
Approximate Bayesian Computation
- Title(参考訳): 近似ベイズ計算を用いたネットワークモデル選択のための概要統計の選択
- Authors: Louis Raynal and Jukka-Pekka Onnela
- Abstract要約: 選択プロセス中に異なる要約コストを考慮するために、コストベースのフィルタ選択方法の有用性を検討します。
その結果,計算量的に安価な要約統計は,分類精度に最小限の影響で効率的に選択できることがわかった。
- 参考スコア(独自算出の注目度): 1.8884278918443564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Approximate Bayesian Computation (ABC) now serves as one of the major
strategies to perform model choice and parameter inference on models with
intractable likelihoods. An essential component of ABC involves comparing a
large amount of simulated data with the observed data through summary
statistics. To avoid the curse of dimensionality, summary statistic selection
is of prime importance, and becomes even more critical when applying ABC to
mechanistic network models. Indeed, while many summary statistics can be used
to encode network structures, their computational complexity can be highly
variable. For large networks, computation of summary statistics can quickly
create a bottleneck, making the use of ABC difficult. To reduce this
computational burden and make the analysis of mechanistic network models more
practical, we investigated two questions in a model choice framework. First, we
studied the utility of cost-based filter selection methods to account for
different summary costs during the selection process. Second, we performed
selection using networks generated with a smaller number of nodes to reduce the
time required for the selection step. Our findings show that computationally
inexpensive summary statistics can be efficiently selected with minimal impact
on classification accuracy. Furthermore, we found that networks with a smaller
number of nodes can only be employed to eliminate a moderate number of
summaries. While this latter finding is network specific, the former is general
and can be adapted to any ABC application.
- Abstract(参考訳): 近似ベイズ計算(ABC)は、現在、難易度のあるモデル上でモデル選択とパラメータ推論を行う主要な戦略の1つとして機能している。
abcの本質的な構成要素は、サマリ統計を通じて大量のシミュレーションデータと観測データを比較することである。
次元の呪いを避けるため、要約統計の選択は最重要であり、abcを機械的なネットワークモデルに適用する場合、さらに重要になる。
実際、多くの要約統計学はネットワーク構造を符号化するのに利用できるが、その計算複雑性は非常に可変である。
大規模ネットワークでは、要約統計の計算がボトルネックを発生させ、abcの使用が困難になる。
この計算負担を低減し, メカニスティックネットワークモデルの解析をより実用的なものにするため, モデル選択フレームワークにおける2つの質問について検討した。
まず,選択過程における異なる要約コストを考慮したコストベースのフィルタ選択手法の有用性を検討した。
次に、少ないノード数で生成されたネットワークを用いて選択を行い、選択ステップに必要な時間を削減する。
その結果,計算量的に安価な要約統計は,分類精度に最小限の影響で効率的に選択できることがわかった。
さらに,ノード数が少ないネットワークは,中程度の要約数を排除するためにのみ使用可能であることが判明した。
この後者の発見はネットワーク固有のものであるが、前者は一般であり、ABCアプリケーションに適応することができる。
関連論文リスト
- Compute-Constrained Data Selection [77.06528009072967]
コスト対応ユーティリティ関数を用いてデータ選択の問題を定式化し、その問題をトレーニングのための初期選択コストのトレーディングとしてモデル化する。
複数のタスク、微調整トークンのスケーリングによる計算予算、モデルサイズ、データ選択計算など、包括的な実験を網羅的に実施しています。
論文 参考訳(メタデータ) (2024-10-21T17:11:21Z) - Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Sample Complexity of Algorithm Selection Using Neural Networks and Its Applications to Branch-and-Cut [1.4624458429745086]
本研究は,最適な性能を持つ1つのアルゴリズムを選択するのではなく,インスタンスに基づいてアルゴリズムを選択することが可能となるような設定を考慮し,最近の研究を基礎にしている。
特に、代表的なインスタンスのサンプルが与えられた場合、問題のインスタンスをそのインスタンスの最も適切なアルゴリズムにマッピングするニューラルネットワークを学習する。
言い換えれば、ニューラルネットワークは混合整数最適化インスタンスを入力として取り、そのインスタンスの小さな分岐とカットツリーをもたらす決定を出力する。
論文 参考訳(メタデータ) (2024-02-04T03:03:27Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Towards Free Data Selection with General-Purpose Models [71.92151210413374]
望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
論文 参考訳(メタデータ) (2023-09-29T15:50:14Z) - MILO: Model-Agnostic Subset Selection Framework for Efficient Model
Training and Tuning [68.12870241637636]
モデル学習からサブセット選択を分離するモデルに依存しないサブセット選択フレームワークMILOを提案する。
実験結果から、MILOはモデルを3ドル(約3,300円)でトレーニングし、ハイパーパラメータを20ドル(約2,300円)でチューニングできます。
論文 参考訳(メタデータ) (2023-01-30T20:59:30Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - Approximate Bayesian Computation with Domain Expert in the Loop [13.801835670003008]
本稿では,ABC統計抽出のためのアクティブラーニング手法を提案する。
専門家を巻き込むことで、既存の次元縮小法とは異なり、不特定モデルを扱うことができる。
実験の結果 シミュレーション予算が制限された場合 既存の方法よりも 後方推定が 優れていることが分かりました
論文 参考訳(メタデータ) (2022-01-28T12:58:51Z) - A Markov Decision Process Approach to Active Meta Learning [24.50189361694407]
教師付き学習では、データが特定のタスクに関連付けられていると仮定して、与えられたデータセットに1つの統計モデルを適用する。
メタラーニングでは、データは多数のタスクと関連付けられており、同時に全てのタスクでうまく機能するモデルを模索する。
論文 参考訳(メタデータ) (2020-09-10T15:45:34Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - Convolutional Neural Networks as Summary Statistics for Approximate
Bayesian Computation [0.0]
本稿では,時間応答の情報的要約統計を自動学習する畳み込みニューラルネットワークアーキテクチャを提案する。
提案するネットワークは,ABC推論における前処理ステップの統計選択問題を効果的に回避できることを示す。
論文 参考訳(メタデータ) (2020-01-31T10:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。