論文の概要: A Two-Stage Imaging Framework Combining CNN and Physics-Informed Neural Networks for Full-Inverse Tomography: A Case Study in Electrical Impedance Tomography (EIT)
- arxiv url: http://arxiv.org/abs/2407.17721v1
- Date: Thu, 25 Jul 2024 02:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:27:36.638246
- Title: A Two-Stage Imaging Framework Combining CNN and Physics-Informed Neural Networks for Full-Inverse Tomography: A Case Study in Electrical Impedance Tomography (EIT)
- Title(参考訳): フルインバーストモグラフィのためのCNNと物理インフォームドニューラルネットワークを組み合わせた2段階イメージングフレームワーク:電気インピーダンストモグラフィー(EIT)を例として
- Authors: Xuanxuan Yang, Yangming Zhang, Haofeng Chen, Gang Ma, Xiaojie Wang,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)と物理情報ニューラルネットワーク(PINN)を組み合わせた2段階ハイブリッド学習フレームワークを提案する。
このフレームワークは、データ駆動とモデル駆動のアプローチを統合し、教師付き学習と教師なし学習を組み合わせて、EITのPINNフレームワーク内の前方および逆問題を分離する。
- 参考スコア(独自算出の注目度): 5.772638266457322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physics-Informed Neural Networks (PINNs) are a machine learning technique for solving partial differential equations (PDEs) by incorporating PDEs as loss terms in neural networks and minimizing the loss function during training. Tomographic imaging, a method to reconstruct internal properties from external measurement data, is highly complex and ill-posed, making it an inverse problem. Recently, PINNs have shown significant potential in computational fluid dynamics (CFD) and have advantages in solving inverse problems. However, existing research has primarily focused on semi-inverse Electrical Impedance Tomography (EIT), where internal electric potentials are accessible. The practical full inverse EIT problem, where only boundary voltage measurements are available, remains challenging. To address this, we propose a two-stage hybrid learning framework combining Convolutional Neural Networks (CNNs) and PINNs to solve the full inverse EIT problem. This framework integrates data-driven and model-driven approaches, combines supervised and unsupervised learning, and decouples the forward and inverse problems within the PINN framework in EIT. Stage I: a U-Net constructs an end-to-end mapping from boundary voltage measurements to the internal potential distribution using supervised learning. Stage II: a Multilayer Perceptron (MLP)-based PINN takes the predicted internal potentials as input to solve for the conductivity distribution through unsupervised learning.
- Abstract(参考訳): 物理情報ニューラルネットワーク(英: Physics-Informed Neural Networks, PINN)は、PDEをニューラルネットワークの損失項として取り入れ、トレーニング中の損失関数を最小化することにより、偏微分方程式(PDE)を解く機械学習技術である。
外部計測データから内部特性を再構成する手法であるトモグラフィー画像は,非常に複雑であり,逆問題である。
近年、PINNは計算流体力学(CFD)において有意なポテンシャルを示し、逆問題の解法に長けている。
しかし、既存の研究は主に半逆電気インピーダンストモグラフィ(EIT)に焦点を当てており、そこでは内部電位がアクセス可能である。
境界電圧の測定しかできない現実的なフル逆EIT問題は、依然として困難である。
そこで本研究では,畳み込みニューラルネットワーク(CNN)とPINNを組み合わせた2段階ハイブリッド学習フレームワークを提案する。
このフレームワークは、データ駆動とモデル駆動のアプローチを統合し、教師付き学習と教師なし学習を組み合わせて、EITのPINNフレームワーク内の前方および逆問題を分離する。
ステージI: U-Netは、境界電圧の測定から教師あり学習を用いた内部電位分布へのエンドツーエンドマッピングを構築する。
ステージII: MLP(Multilayer Perceptron)ベースのPINNは、予測内部電位を入力として、教師なし学習を通して導電率分布を解く。
関連論文リスト
- Physics-Informed Neural Networks for Electrical Circuit Analysis: Applications in Dielectric Material Modeling [0.0]
物理情報ニューラルネットワーク(PINN)は、物理法則を直接学習プロセスに組み込むことによって、有望なアプローチを提供する。
本稿では、PINNの実装に特化して設計されたDeepXDEフレームワークの機能と制限について説明する。
電流(ln(I))に対数変換を適用することにより,PINN予測の安定性と精度が著しく向上することを示す。
論文 参考訳(メタデータ) (2024-11-13T19:08:36Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Characteristics-Informed Neural Networks for Forward and Inverse
Hyperbolic Problems [0.0]
双曲型PDEを含む前方および逆問題に対する特徴情報ニューラルネットワーク(CINN)を提案する。
CINNは、通常のMSEデータ適合回帰損失をトレーニングした汎用ディープニューラルネットワークにおいて、PDEの特性を符号化する。
予備的な結果は、CINNがベースラインPINNの精度を改善しつつ、トレーニングの約2倍の速さで非物理的解を回避できることを示している。
論文 参考訳(メタデータ) (2022-12-28T18:38:53Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Critical Investigation of Failure Modes in Physics-informed Neural
Networks [0.9137554315375919]
合成定式化による物理インフォームドニューラルネットワークは、最適化が難しい非学習損失面を生成することを示す。
また,2つの楕円問題に対する2つのアプローチを,より複雑な目標解を用いて評価する。
論文 参考訳(メタデータ) (2022-06-20T18:43:35Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Scientific Machine Learning through Physics-Informed Neural Networks:
Where we are and What's next [5.956366179544257]
physic-Informed Neural Networks (PINN) は、モデル方程式を符号化するニューラルネットワーク(NN)である。
PINNは現在ではPDE、分数方程式、積分微分方程式の解法として使われている。
論文 参考訳(メタデータ) (2022-01-14T19:05:44Z) - Physics-guided Loss Functions Improve Deep Learning Performance in
Inverse Scattering [13.529767949868248]
ディープニューラルネットワーク(DNN)技術は、電磁逆散乱問題にうまく応用されている。
トレーニングプロセスにおいて,身体現象が効果的に組み込まれないことを示す。
多重散乱に基づく近接場量を含む損失関数の新しい設計法を提案する。
論文 参考訳(メタデータ) (2021-11-13T16:36:23Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。