論文の概要: Machine Learning as an Accurate Predictor for Percolation Threshold of
Diverse Networks
- arxiv url: http://arxiv.org/abs/2212.14694v2
- Date: Sat, 25 Mar 2023 18:15:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 01:02:33.798748
- Title: Machine Learning as an Accurate Predictor for Percolation Threshold of
Diverse Networks
- Title(参考訳): 各種ネットワークのパーコレーション閾値の精度予測器としての機械学習
- Authors: Siddharth Patwardhan, Utso Majumder, Aditya Das Sarma, Mayukha Pal,
Divyanshi Dwivedi and Prasanta K. Panigrahi
- Abstract要約: パーコレーション閾値は、大きなネットワークの固有の剛性を決定する重要な尺度である。
パーコレーション閾値の精度予測に機械学習を用いた5つの回帰手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The percolation threshold is an important measure to determine the inherent
rigidity of large networks. Predictors of the percolation threshold for large
networks are computationally intense to run, hence it is a necessity to develop
predictors of the percolation threshold of networks, that do not rely on
numerical simulations. We demonstrate the efficacy of five machine
learning-based regression techniques for the accurate prediction of the
percolation threshold. The dataset generated to train the machine learning
models contains a total of 777 real and synthetic networks. It consists of 5
statistical and structural properties of networks as features and the
numerically computed percolation threshold as the output attribute. We
establish that the machine learning models outperform three existing empirical
estimators of bond percolation threshold, and extend this experiment to predict
site and explosive percolation. Further, we compared the performance of our
models in predicting the percolation threshold using RMSE values. The gradient
boosting regressor, multilayer perceptron and random forests regression models
achieve the least RMSE values among considered models.
- Abstract(参考訳): パーコレーション閾値は、大きなネットワークの固有の剛性を決定する重要な尺度である。
大規模ネットワークのパーコレーションしきい値の予測者は計算量が非常に強いため、数値シミュレーションに依存しないネットワークのパーコレーションしきい値の予測子を開発する必要がある。
パーコレーション閾値の精度予測に機械学習を用いた5つの回帰手法の有効性を実証する。
機械学習モデルをトレーニングするために生成されたデータセットには、合計777の実ネットワークと合成ネットワークが含まれている。
ネットワークの特徴として5つの統計的および構造的性質と、出力属性として数値計算されたパーコレーションしきい値からなる。
本研究では,既存の3種類のボンドパーコレーションしきい値よりも機械学習モデルの方が優れており,この実験を現場および爆発的パーコレーション予測に拡張する。
さらに, RMSE値を用いたパーコレーション閾値の予測において, モデルの性能を比較した。
勾配促進回帰器, 多層パーセプトロン, ランダム森林回帰モデルは, 検討されたモデルの中で最低RMSE値を達成する。
関連論文リスト
- An Investigation on Machine Learning Predictive Accuracy Improvement and Uncertainty Reduction using VAE-based Data Augmentation [2.517043342442487]
深層生成学習は、特定のMLモデルを使用して、既存のデータの基盤となる分布を学習し、実際のデータに似た合成サンプルを生成する。
本研究では,変分オートエンコーダ(VAE)を用いた深部生成モデルを用いて,データ拡張の有効性を評価することを目的とする。
本研究では,拡張データを用いてトレーニングしたディープニューラルネットワーク(DNN)モデルの予測において,データ拡張が精度の向上につながるかどうかを検討した。
論文 参考訳(メタデータ) (2024-10-24T18:15:48Z) - Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Forest Parameter Prediction by Multiobjective Deep Learning of
Regression Models Trained with Pseudo-Target Imputation [6.853936752111048]
リモートセンシングデータを用いた森林パラメータの予測において、回帰モデルは、伝統的に地上基準データの小さなサンプルに基づいて訓練されてきた。
本稿では, 擬似ターゲットとみなす既存の RS ベースの予測マップからのデータを用いて, この真の予測対象のサンプルをインプットする。
我々は、空中レーザー走査(ALS)データから構築された予測マップを用いて、正確な擬似ターゲットと、Sentinel-1のCバンド合成開口レーダ(SAR)のデータを回帰器として提供する。
論文 参考訳(メタデータ) (2023-06-19T18:10:47Z) - EAMDrift: An interpretable self retrain model for time series [0.0]
EAMDrift(EAMDrift)は、複数の個人予測器から予測を合成し、性能指標に従って予測を重み付けする新しい手法である。
EAMDriftはデータのアウト・オブ・ディストリビューションパターンに自動的に適応し、各瞬間に使用する最も適切なモデルを特定するように設計されている。
本研究は,EAMDriftが個々のベースラインモデルより20%優れ,非解釈可能なアンサンブルモデルに匹敵する精度が得られることを示す。
論文 参考訳(メタデータ) (2023-05-31T13:25:26Z) - Post-training Model Quantization Using GANs for Synthetic Data
Generation [57.40733249681334]
量子化法における実データを用いたキャリブレーションの代用として合成データを用いた場合について検討する。
本稿では,StyleGAN2-ADAが生成したデータと事前学習したDiStyleGANを用いて定量化したモデルの性能と,実データを用いた量子化とフラクタル画像に基づく代替データ生成手法との比較を行った。
論文 参考訳(メタデータ) (2023-05-10T11:10:09Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Fast, Accurate, and Simple Models for Tabular Data via Augmented
Distillation [97.42894942391575]
本研究では、FAST-DADを用いて、任意の複雑なアンサンブル予測を、高木、無作為林、深層ネットワークなどの個々のモデルに抽出する。
我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。
論文 参考訳(メタデータ) (2020-06-25T09:57:47Z) - Forecasting Industrial Aging Processes with Machine Learning Methods [0.0]
我々は、従来のステートレスモデルとより複雑なリカレントニューラルネットワークを比較して、幅広いデータ駆動モデルを評価する。
以上の結果から,リカレントモデルでは,より大きなデータセットでトレーニングした場合,ほぼ完璧な予測が得られた。
論文 参考訳(メタデータ) (2020-02-05T13:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。