論文の概要: Physics-Enforced Modeling for Insertion Loss of Transmission Lines by
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2107.12527v1
- Date: Tue, 27 Jul 2021 00:22:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:27:54.197285
- Title: Physics-Enforced Modeling for Insertion Loss of Transmission Lines by
Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークによる伝送線路の絶縁損失の物理強制モデリング
- Authors: Liang Chen, Lesley Tan
- Abstract要約: ニューラルネットワークの直接適用は、負の挿入損失を持つ非物理モデルにつながる可能性があることを示す。
1つの解決策は、受動的条件を表す規制項を最終損失関数に追加し、挿入損失の負の量を強制することである。
第2の方法では、挿入損失を近似する正性を保証する3階式を最初に定義する。
- 参考スコア(独自算出の注目度): 4.762000720968522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate data-driven parameterized modeling of insertion
loss for transmission lines with respect to design parameters. We first show
that direct application of neural networks can lead to non-physics models with
negative insertion loss. To mitigate this problem, we propose two deep learning
solutions. One solution is to add a regulation term, which represents the
passive condition, to the final loss function to enforce the negative quantity
of insertion loss. In the second method, a third-order polynomial expression is
defined first, which ensures positiveness, to approximate the insertion loss,
then DeepONet neural network structure, which was proposed recently for
function and system modeling, was employed to model the coefficients of
polynomials. The resulting neural network is applied to predict the
coefficients of the polynomial expression. The experimental results on an
open-sourced SI/PI database of a PCB design show that both methods can ensure
the positiveness for the insertion loss. Furthermore, both methods can achieve
similar prediction results, while the polynomial-based DeepONet method is
faster than DeepONet based method in training time.
- Abstract(参考訳): 本稿では,設計パラメータに関する伝送線路の挿入損失に関するデータ駆動パラメータモデルについて検討する。
まず,ニューラルネットワークの直接的応用が非物理モデルに負の挿入損失をもたらすことを示した。
この問題を軽減するために,我々は2つのディープラーニングソリューションを提案する。
1つの解決策は、受動的条件を表す規制項を最終損失関数に追加し、挿入損失の負の量を強制することである。
第2の手法では,3次多項式式をまず定義し,正性を確保し,挿入損失を近似し,関数とシステムモデリングのために最近提案されたディープネトニューラルネットワーク構造を用いて多項式の係数をモデル化した。
得られたニューラルネットワークを用いて多項式表現の係数を予測する。
PCB設計のオープンソースSI/PIデータベースを用いた実験結果から, 挿入損失の正性を保証することができることがわかった。
さらに, いずれの手法も同様の予測結果が得られるが, 多項式ベースのdeeponet法はdeeponet法よりも学習時間において高速である。
関連論文リスト
- SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks [0.0]
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
論文 参考訳(メタデータ) (2024-09-08T19:46:45Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Efficient Bayesian inference using physics-informed invertible neural
networks for inverse problems [6.97393424359704]
物理インフォームド・インバータブルニューラルネットワーク(PI-INN)を利用したベイズ逆問題に対する革新的なアプローチを提案する。
PI-INNはベイズ逆問題に対して正確かつ効率的な生成モデルを提供し、抽出可能な後部密度推定をもたらす。
特定の物理インフォームドディープラーニングモデルとして、PI-INNの主要なトレーニング課題は独立性制約の強化である。
論文 参考訳(メタデータ) (2023-04-25T03:17:54Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Finite Sample Identification of Wide Shallow Neural Networks with Biases [12.622813055808411]
入力-出力対の有限標本からネットワークのパラメータを同定することは、しばしばエンプテラー-学生モデル(enmphteacher-student model)と呼ばれる。
本稿では,このような幅の広い浅層ネットワークに対して,構成的手法と有限標本同定の理論的保証を提供することにより,そのギャップを埋める。
論文 参考訳(メタデータ) (2022-11-08T22:10:32Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Model Order Reduction based on Runge-Kutta Neural Network [0.0]
本研究では,各ステップにいくつかの修正を加え,3つのシミュレーションモデルによるテストによる影響について検討する。
モデル再構成ステップでは,多層型パーセプトロン(mlp)とrunge-kuttaニューラルネットワーク(rknn)の2種類のニューラルネットワークアーキテクチャを比較した。
論文 参考訳(メタデータ) (2021-03-25T13:02:16Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。