論文の概要: Machine Learning for Consistency Violation Faults Analysis
- arxiv url: http://arxiv.org/abs/2506.02002v1
- Date: Tue, 20 May 2025 22:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-08 12:40:08.673825
- Title: Machine Learning for Consistency Violation Faults Analysis
- Title(参考訳): 一貫性振動異常解析のための機械学習
- Authors: Kamal Giri, Amit Garu,
- Abstract要約: 本研究では,分散システムにおける整合性障害(cvfs)の影響を機械学習で解析する手法を提案する。
プログラム遷移ランクとそれに対応する効果を計算し,システム動作に対するcvfsの影響を定量化する。
実験の結果、有望な性能を示し、テスト損失は4.39、絶対誤差は1.5である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed systems frequently encounter consistency violation faults (cvfs), where nodes operate on outdated or inaccurate data, adversely affecting convergence and overall system performance. This study presents a machine learning-based approach for analyzing the impact of CVFs, using Dijkstra's Token Ring problem as a case study. By computing program transition ranks and their corresponding effects, the proposed method quantifies the influence of cvfs on system behavior. To address the state space explosion encountered in larger graphs, two models are implemented: a Feedforward Neural Network (FNN) and a distributed neural network leveraging TensorFlow's \texttt{tf.distribute} API. These models are trained on datasets generated from smaller graphs (3 to 10 nodes) to predict parameters essential for determining rank effects. Experimental results demonstrate promising performance, with a test loss of 4.39 and a mean absolute error of 1.5. Although distributed training on a CPU did not yield significant speed improvements over a single-device setup, the findings suggest that scalability could be enhanced through the use of advanced hardware accelerators such as GPUs or TPUs.
- Abstract(参考訳): 分散システムは、ノードが古いデータや不正確なデータを操作し、収束とシステム全体のパフォーマンスに悪影響を及ぼす、一貫性違反(cvfs)に頻繁に遭遇する。
本研究では,DijkstraのToken Ring問題を用いて,CVFの影響を機械学習で解析する手法を提案する。
プログラム遷移ランクとそれに対応する効果を計算し,システム動作に対するcvfsの影響を定量化する。
大きなグラフで発生する状態空間の爆発に対処するために、2つのモデルが実装されている。Feedforward Neural Network(FNN)とTensorFlowの‘texttt{tf.distribute} APIを活用した分散ニューラルネットワークだ。
これらのモデルは、より小さなグラフ(3ノードから10ノード)から生成されたデータセットに基づいてトレーニングされ、ランク効果を決定するのに必要なパラメータを予測する。
実験の結果、有望な性能を示し、テスト損失は4.39、絶対誤差は1.5である。
CPU上での分散トレーニングでは、単一デバイスセットアップよりも大幅な速度向上が得られなかったが、GPUやTPUといった高度なハードウェアアクセラレータを使うことで、スケーラビリティが向上する可能性が示唆された。
関連論文リスト
- Time-Series Learning for Proactive Fault Prediction in Distributed Systems with Deep Neural Structures [5.572536027964037]
本稿では,分散システムにおける障害予測と遅延応答の課題に対処する。
時間とともにシステム状態の進化をモデル化するために、Gated Recurrent Unitを使用します。
次に、注意機構を適用して、重要な時間セグメントを強化し、潜在的な欠陥を識別するモデルの能力を向上させる。
論文 参考訳(メタデータ) (2025-05-27T04:31:12Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Deep Graph Stream SVDD: Anomaly Detection in Cyber-Physical Systems [17.373668215331737]
本稿では,異常検出のためのディープグラフベクトルデータ記述法(SVDD)を提案する。
まず、時間的埋め込みにおけるデータ監視の短絡パターンと長絡パターンの両方を保存するために、トランスフォーマーを使用します。
センサタイプに応じてこれらの埋め込みをクラスタリングし、各種センサ間の接続性の変化を推定し、新しい重み付きグラフを構築する。
論文 参考訳(メタデータ) (2023-02-24T22:14:39Z) - CUTS: Neural Causal Discovery from Irregular Time-Series Data [27.06531262632836]
時系列データからの因果発見は、機械学習における中心的なタスクである。
本稿では,ニューラルグランガー因果探索アルゴリズムであるCUTSについて述べる。
提案手法は,非理想的な観測を行う実アプリケーションに因果発見を適用するための有望なステップとなる。
論文 参考訳(メタデータ) (2023-02-15T04:16:34Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。