論文の概要: Model Based and Physics Informed Deep Learning Neural Network Structures
- arxiv url: http://arxiv.org/abs/2408.07104v1
- Date: Tue, 13 Aug 2024 07:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 15:07:25.885216
- Title: Model Based and Physics Informed Deep Learning Neural Network Structures
- Title(参考訳): モデルベースと物理インフォームド深層学習ニューラルネットワーク構造
- Authors: Ali Mohammad-Djafari, Ning Chu, Li Wang, Caifang Cai, Liang Yu,
- Abstract要約: ニューラルネットワーク(NN)は多くの分野で利用されており、大きな成功を収めている。
大きな難題の1つは、NNの構造の選択である。
モデルベース信号と画像処理と逆問題手法を用いてこの問題を考察する。
- 参考スコア(独自算出の注目度): 7.095119621199481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Networks (NN) has been used in many areas with great success. When a NN's structure (Model) is given, during the training steps, the parameters of the model are determined using an appropriate criterion and an optimization algorithm (Training). Then, the trained model can be used for the prediction or inference step (Testing). As there are also many hyperparameters, related to the optimization criteria and optimization algorithms, a validation step is necessary before its final use. One of the great difficulties is the choice of the NN's structure. Even if there are many "on the shelf" networks, selecting or proposing a new appropriate network for a given data, signal or image processing, is still an open problem. In this work, we consider this problem using model based signal and image processing and inverse problems methods. We classify the methods in five classes, based on: i) Explicit analytical solutions, ii) Transform domain decomposition, iii) Operator Decomposition, iv) Optimization algorithms unfolding, and v) Physics Informed NN methods (PINN). Few examples in each category are explained.
- Abstract(参考訳): ニューラルネットワーク(NN)は多くの分野で利用されており、大きな成功を収めている。
NNの構造(モデル)が与えられると、トレーニングステップの間、適切な基準と最適化アルゴリズム(Training)を用いてモデルのパラメータを決定する。
次に、トレーニングされたモデルを予測または推論ステップ(テスト)に使用することができる。
最適化基準や最適化アルゴリズムに関しても多くのハイパーパラメータが存在するため、最終的な使用前に検証ステップが必要である。
大きな難題の1つは、NNの構造の選択である。
棚に多くの「棚」ネットワークがあるとしても、与えられたデータ、信号、画像処理のために新しい適切なネットワークを選択したり提案したりすることは、まだ未解決の問題である。
本研究では,モデルに基づく信号と画像処理と逆問題手法を用いてこの問題を考察する。
メソッドを5つのクラスに分類します。
一 分析解を明示すること。
二 変換領域分解
三 オペレータ分解
四 最適化アルゴリズムの展開、及び
五 物理学インフォームドNN法(PINN)
各カテゴリの例は少ない。
関連論文リスト
- The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - Differentiable Visual Computing for Inverse Problems and Machine
Learning [27.45555082573493]
ビジュアルコンピューティング手法は、幾何学を解析し、固体、流体、その他の媒体を物理的にシミュレートし、光学技術で世界をレンダリングするために用いられる。
ディープラーニング(DL)は、一般的なアルゴリズムモデルの構築を可能にする。
DLは高度にパラメータ化されたニューラルネットワークアーキテクチャ -- ユニバーサル関数近似器 -- と勾配に基づく検索アルゴリズムによって実現されている。
論文 参考訳(メタデータ) (2023-11-21T23:02:58Z) - On Using Deep Learning Proxies as Forward Models in Deep Learning
Problems [5.478764356647437]
近年の研究では、物理モデリングがニューラルネットワークで近似できることが示されている。
このような関数のニューラルネットワーク近似(NN-プロキシ)が誤った結果をもたらすことを実証する。
特に,粒子群最適化と遺伝的アルゴリズムの挙動について検討した。
論文 参考訳(メタデータ) (2023-01-16T04:54:12Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Optimization-Informed Neural Networks [0.6853165736531939]
制約付き非線形最適化問題を解くために最適化インフォームドニューラルネットワーク(OINN)を提案する。
簡単に言うと、OINNはCNLPをニューラルネットワークトレーニング問題に変換する。
提案手法の有効性は古典的な問題の収集を通じて実証される。
論文 参考訳(メタデータ) (2022-10-05T09:28:55Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。