論文の概要: Neural Born Iteration Method For Solving Inverse Scattering Problems: 2D
Cases
- arxiv url: http://arxiv.org/abs/2112.09831v1
- Date: Sat, 18 Dec 2021 03:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 17:52:39.724115
- Title: Neural Born Iteration Method For Solving Inverse Scattering Problems: 2D
Cases
- Title(参考訳): 逆散乱問題に対するニューラルボーン反復法:2次元の場合
- Authors: Tao Shan, Zhichao Lin, Xiaoqian Song, Maokun Li, Fan Yang, and
Shenheng Xu
- Abstract要約: 本稿では,2次元逆散乱問題(ISP)を解決するニューラルボルン反復法(Neural BIM)を提案する。
ニューラルBIMは独立畳み込みニューラルネットワーク(CNN)を用いて、2つの異なる候補解の更新規則と対応する残差を学習する。
本稿では,教師なしおよび教師なしの学習スキームを含む2種類のニューラルBIM方式について述べる。
- 参考スコア(独自算出の注目度): 2.416241143557101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose the neural Born iteration method (NeuralBIM) for
solving 2D inverse scattering problems (ISPs) by drawing on the scheme of
physics-informed supervised residual learning (PhiSRL) to emulate the computing
process of the traditional Born iteration method (TBIM). NeuralBIM employs
independent convolutional neural networks (CNNs) to learn the alternate update
rules of two different candidate solutions with their corresponding residuals.
Two different schemes of NeuralBIMs are presented in this paper including
supervised and unsupervised learning schemes. With the data set generated by
method of moments (MoM), supervised NeuralBIMs are trained with the knowledge
of total fields and contrasts. Unsupervised NeuralBIM is guided by the
physics-embedded loss functions founding on the governing equations of ISPs,
which results in no requirements of total fields and contrasts for training.
Representative numerical results further validate the effectiveness and
competitiveness of both supervised and unsupervised NeuralBIMs.
- Abstract(参考訳): 本稿では,従来のボルン反復法 (TBIM) の計算過程をエミュレートするために,物理情報を用いた教師付き残差学習 (PhiSRL) の手法を応用して,2次元逆散乱問題 (ISP) を解決するニューラルボルン反復法 (NeuralBIM) を提案する。
NeuralBIMは独立畳み込みニューラルネットワーク(CNN)を使用して、2つの異なる候補解の更新規則と対応する残差を学習する。
本稿では,教師なしおよび教師なしの学習スキームを含む2種類のNeuralBIMについて述べる。
モーメント法(MoM)によって生成されたデータセットを用いて、教師付きニューラルBIMは、全フィールドとコントラストの知識で訓練される。
教師なしニューラルBIMは、ISPの制御方程式に基づく物理埋め込み損失関数によって導かれる。
代表的数値結果は、教師なしと教師なしのニューラルBIMの有効性と競争性を更に検証する。
関連論文リスト
- Error Analysis and Numerical Algorithm for PDE Approximation with Hidden-Layer Concatenated Physics Informed Neural Networks [0.9693477883827689]
本稿では,隠れた物理情報ニューラルネットワーク(HLConcPINN)を提案する。
隠れたフィードフォワードニューラルネットワーク、修正されたブロックタイムマーチング戦略、偏微分方程式(PDE)を近似するための物理情報アプローチを組み合わせる。
本手法の近似誤差は, 長期間の地平線を有する動的シミュレーションのトレーニング損失によって効果的に制御できることを示す。
論文 参考訳(メタデータ) (2024-06-10T15:12:53Z) - Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Feed-Forward Neural Networks as a Mixed-Integer Program [0.0]
本研究は手書き桁分類モデルを用いた実験を通じて提案手法の訓練と評価に焦点をあてる。
この研究は、トレーニングされたReLU NNの性能を評価し、NNのトレーニングプロセスの強化におけるMIP定式化の有効性に光を当てる。
論文 参考訳(メタデータ) (2024-02-09T02:23:37Z) - Splitting physics-informed neural networks for inferring the dynamics of
integer- and fractional-order neuron models [0.0]
分割法と物理情報ニューラルネットワーク(PINN)を組み合わせた微分方程式の前方解法を提案する。
提案手法はPINNを分割し,動的システムにPINNを適用するという課題に効果的に対処する。
論文 参考訳(メタデータ) (2023-04-26T00:11:00Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。