論文の概要: Sampling and active learning methods for network reliability estimation using K-terminal spanning tree
- arxiv url: http://arxiv.org/abs/2407.11053v1
- Date: Tue, 9 Jul 2024 08:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 12:09:54.845685
- Title: Sampling and active learning methods for network reliability estimation using K-terminal spanning tree
- Title(参考訳): K末端スパンニングツリーを用いたネットワーク信頼度推定のためのサンプリングおよびアクティブラーニング手法
- Authors: Chen Ding, Pengfei Wei, Yan Shi, Jinxing Liu, Matteo Broggi, Michael Beer,
- Abstract要約: ネットワークの信頼性分析は、ネットワークのサイズと複雑さが増大しているため、依然として課題である。
本稿では,ネットワーク信頼度を効果的かつ高精度に推定するための新しいサンプリング手法とアクティブラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 16.985964958558586
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Network reliability analysis remains a challenge due to the increasing size and complexity of networks. This paper presents a novel sampling method and an active learning method for efficient and accurate network reliability estimation under node failure and edge failure scenarios. The proposed sampling method adopts Monte Carlo technique to sample component lifetimes and the K-terminal spanning tree algorithm to accelerate structure function computation. Unlike existing methods that compute only one structure function value per sample, our method generates multiple component state vectors and corresponding structure function values from each sample. Network reliability is estimated based on survival signatures derived from these values. A transformation technique extends this method to handle both node failure and edge failure. To enhance efficiency of proposed sampling method and achieve adaptability to network topology changes, we introduce an active learning method utilizing a random forest (RF) classifier. This classifier directly predicts structure function values, integrates network behaviors across diverse topologies, and undergoes iterative refinement to enhance predictive accuracy. Importantly, the trained RF classifier can directly predict reliability for variant networks, a capability beyond the sampling method alone. Through investigating several network examples and two practical applications, the effectiveness of both proposed methods is demonstrated.
- Abstract(参考訳): ネットワークの信頼性分析は、ネットワークのサイズと複雑さが増大しているため、依然として課題である。
本稿では,ノード障害およびエッジ障害シナリオ下でのネットワーク信頼度を効果的かつ高精度に推定するための新しいサンプリング手法とアクティブラーニング手法を提案する。
提案手法では,モンテカルロ法を用いて成分寿命を推定し,K末端スパンニング木アルゴリズムを用いて構造関数計算を高速化する。
サンプル毎に1つの構造関数値しか計算しない既存の手法とは異なり、本手法では複数の成分状態ベクトルと対応する構造関数値を各サンプルから生成する。
これらの値から得られた生存シグネチャに基づいて,ネットワークの信頼性を推定する。
変換手法はこの手法を拡張し、ノード障害とエッジ障害の両方を扱う。
提案手法の効率を高め,ネットワークトポロジ変化への適応性を実現するために,ランダムフォレスト分類器を用いた能動的学習手法を提案する。
この分類器は、構造関数の値を直接予測し、様々なトポロジにわたってネットワークの挙動を統合し、予測精度を高めるために反復的な改善を行う。
重要なことは、トレーニングされたRF分類器は、サンプリング法以外の機能として、変種ネットワークの信頼性を直接予測することができることである。
いくつかのネットワーク事例と2つの実践的応用を調査し、提案手法の有効性を実証した。
関連論文リスト
- Learning k-Level Sparse Neural Networks Using a New Generalized Weighted
Group Sparse Envelope Regularization [4.557963624437785]
トレーニング中の非構造化ニューラルネットワークの効率的な手法を提案する。
We use a novel sparse envelope function (SEF) used as a regularizer, called itshape group envelope function (WGSEF)。
この手法により、ハードウェアフレンドリーな構造化された深部ニューラルネットワーク(DNN)がスパースの評価を効率的に高速化する。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Calibrate and Debias Layer-wise Sampling for Graph Convolutional
Networks [39.56471534442315]
本稿では,行列近似の観点からアプローチを再考する。
本稿では,サンプリング確率と効率的なデバイアスアルゴリズムを構築するための新しい原理を提案する。
改良は、推定分散の広範囲な解析と、一般的なベンチマークの実験によって実証される。
論文 参考訳(メタデータ) (2022-06-01T15:52:06Z) - Effective Out-of-Distribution Detection in Classifier Based on
PEDCC-Loss [5.614122064282257]
PEDCC-Loss を用いたアウト・オブ・ディストリビューション例の検出に有効なアルゴリズムを提案する。
PEDCC(Predefined Evenly-Distribution Class Centroids)分類器によって出力される信頼スコアの性質を数学的に解析する。
次に,より効果的なスコアリング機能を構築し,分布内(ID)と分布外(out-of-distriion)を区別する。
論文 参考訳(メタデータ) (2022-04-10T11:47:29Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - i-SpaSP: Structured Neural Pruning via Sparse Signal Recovery [11.119895959906085]
ニューラルネットワークのための新しい構造化プルーニングアルゴリズム - i-SpaSPと呼ばれる反復型スパース構造化プルーニングを提案する。
i-SpaSPはネットワーク内の重要なパラメータ群を識別することで動作し、プルーニングされたネットワーク出力と高密度なネットワーク出力の残差に最も寄与する。
高い性能のサブネットワークを発見し, 証明可能なベースライン手法のプルーニング効率を, 数桁の精度で向上させることが示されている。
論文 参考訳(メタデータ) (2021-12-07T05:26:45Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Fast Network Community Detection with Profile-Pseudo Likelihood Methods [19.639557431997037]
ブロックモデル確率関数に適合するほとんどのアルゴリズムは、大規模ネットワークには拡張できない。
本稿では,行ラベルと列ラベルを疎結合する新たな可能性的アプローチを提案する。
本手法は,ブロックモデルにおいて,コミュニティの強い一貫した推定値を提供することを示す。
論文 参考訳(メタデータ) (2020-11-01T23:40:26Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。