論文の概要: Graph-Structured Kernel Design for Power Flow Learning using Gaussian
Processes
- arxiv url: http://arxiv.org/abs/2308.07867v1
- Date: Tue, 15 Aug 2023 16:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:11:52.611029
- Title: Graph-Structured Kernel Design for Power Flow Learning using Gaussian
Processes
- Title(参考訳): ガウス過程を用いたパワーフロー学習のためのグラフ構造カーネル設計
- Authors: Parikshit Pareek, Deepjyoti Deka, and Sidhant Misra
- Abstract要約: 本稿では,ガウス過程(GP)を用いた電力フロー学習のための物理インスピレーション付きグラフ構造化カーネルを提案する。
本稿では,VDKの学習を高速化するために,逐次学習入力をインテリジェントに選択するネットワークスワイプ型能動学習手法を提案する。
ネットワーク・スワイプ・アルゴリズムは、中規模の500-Busシステムでは2倍のランダム・トライアルで500個のランダム・トライアルの平均性能を平均10%向上させ、大規模1354-Busシステムでは25個のランダム・トライアルの最高性能を10%向上させる。
- 参考スコア(独自算出の注目度): 2.8060709233558647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a physics-inspired graph-structured kernel designed for
power flow learning using Gaussian Process (GP). The kernel, named the
vertex-degree kernel (VDK), relies on latent decomposition of voltage-injection
relationship based on the network graph or topology. Notably, VDK design avoids
the need to solve optimization problems for kernel search. To enhance
efficiency, we also explore a graph-reduction approach to obtain a VDK
representation with lesser terms. Additionally, we propose a novel
network-swipe active learning scheme, which intelligently selects sequential
training inputs to accelerate the learning of VDK. Leveraging the additive
structure of VDK, the active learning algorithm performs a block-descent type
procedure on GP's predictive variance, serving as a proxy for information gain.
Simulations demonstrate that the proposed VDK-GP achieves more than two fold
sample complexity reduction, compared to full GP on medium scale 500-Bus and
large scale 1354-Bus power systems. The network-swipe algorithm outperforms
mean performance of 500 random trials on test predictions by two fold for
medium-sized 500-Bus systems and best performance of 25 random trials for
large-scale 1354-Bus systems by 10%. Moreover, we demonstrate that the proposed
method's performance for uncertainty quantification applications with
distributionally shifted testing data sets.
- Abstract(参考訳): 本稿では,ガウス過程(GP)を用いた電力フロー学習のための物理インスピレーション付きグラフ構造化カーネルを提案する。
VDK (vertex-degree kernel) と呼ばれるカーネルは、ネットワークグラフやトポロジーに基づく電圧-注入関係の遅延分解に依存している。
特に、VDK設計では、カーネル探索の最適化問題を解く必要がなくなる。
効率を向上させるため、より少ない項でvdk表現を得るためのグラフリダクション手法も検討する。
さらに,VDKの学習を高速化するために,逐次学習入力をインテリジェントに選択するネットワークスワイプ型アクティブ学習手法を提案する。
vdkの付加構造を利用して、アクティブラーニングアルゴリズムはgpの予測分散に対してブロック・ディセント型手続きを実行し、情報ゲインのプロキシとして機能する。
シミュレーションにより,提案するvdk-gpは,中規模 500 バスと大規模 1354 バス電力系統のフル gp と比較して,2 倍以上の複雑化を実現した。
ネットワークスウィップアルゴリズムは,中規模500バスシステムでは2折り畳みテスト,大規模1354バスシステムでは25回のランダムトライアルでは10%の精度で,500ランダムトライアルの平均性能を上回っている。
さらに, 分布シフトテストデータセットを用いた不確実性定量化アプリケーションにおける提案手法の性能を示す。
関連論文リスト
- Data-Efficient Strategies for Probabilistic Voltage Envelopes under Network Contingencies [2.8060709233558647]
本研究では,ネットワーク共振器を有するグリッドにおける電力フロー学習を用いた確率電圧エンベロープ(PVE)を構築するための効率的なデータ駆動手法を提案する。
提案手法は,モンテカルロサンプリング法に比べて16倍少ない電力フロー解を用いてPVEを実現できることを示す。
論文 参考訳(メタデータ) (2023-10-01T19:02:00Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Exploration of Hardware Acceleration Methods for an XNOR Traffic Signs
Classifier [0.0]
本研究では,交通標識分類のためのXNORネットワークの高速化の可能性を検討する。
我々は,約450fpsの推論が可能な,XNORネットワーク用の独自のHDLアクセラレータを提案する。
さらに優れた結果は、Xilinx FINNアクセラレータの2番目の方法で得られ、550フレームレートで入力画像を処理することができます。
論文 参考訳(メタデータ) (2021-04-06T06:01:57Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Toward Accurate Platform-Aware Performance Modeling for Deep Neural
Networks [0.17499351967216337]
機械学習に基づくPerfNetV2は、さまざまなGPUアクセラレータ上でのニューラルネットワークのパフォーマンスをモデル化するための、これまでの作業の精度を向上させる。
アプリケーションを利用すると、アプリケーションで使用される畳み込みニューラルネットワークの推論時間とトレーニング時間を予測することができる。
我々のケーススタディでは、PerfNetV2が13.1%のLeNet、AlexNet、VGG16、NVIDIA GTX-1080Tiで平均絶対パーセンテージエラーを発生し、ICBD 2018で発表された以前の研究のエラー率は200%に達する可能性がある。
論文 参考訳(メタデータ) (2020-12-01T01:42:23Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。