論文の概要: Physics-Informed with Power-Enhanced Residual Network for Interpolation
and Inverse Problems
- arxiv url: http://arxiv.org/abs/2310.15690v1
- Date: Tue, 24 Oct 2023 10:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 19:19:55.768666
- Title: Physics-Informed with Power-Enhanced Residual Network for Interpolation
and Inverse Problems
- Title(参考訳): 補間・逆問題に対する高次残差ネットワークを用いた物理インフォームド
- Authors: Amir Noorizadegan, D.L. Young, Y.C. Hon, C.S. Chen
- Abstract要約: 本稿では、パワーエンハンシング残差ネットワークと呼ばれる新しいニューラルネットワーク構造を提案する。
残余要素に電力項を追加することで、アーキテクチャはネットワークの表現力を高める。
その結果、特に非滑らか関数に対して、提案したパワーエンハンシング残差ネットワークの例外的精度を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel neural network structure called the
Power-Enhancing residual network, designed to improve interpolation
capabilities for both smooth and non-smooth functions in 2D and 3D settings. By
adding power terms to residual elements, the architecture boosts the network's
expressive power. The study explores network depth, width, and optimization
methods, showing the architecture's adaptability and performance advantages.
Consistently, the results emphasize the exceptional accuracy of the proposed
Power-Enhancing residual network, particularly for non-smooth functions.
Real-world examples also confirm its superiority over plain neural network in
terms of accuracy, convergence, and efficiency. The study also looks at the
impact of deeper network. Moreover, the proposed architecture is also applied
to solving the inverse Burgers' equation, demonstrating superior performance.
In conclusion, the Power-Enhancing residual network offers a versatile solution
that significantly enhances neural network capabilities. The codes implemented
are available at: \url{https://github.com/CMMAi/ResNet_for_PINN}.
- Abstract(参考訳): 本稿では,2次元および3次元設定におけるスムース関数と非スムース関数の補間能力を改善するために設計された,パワーエンハンシング残差ネットワークと呼ばれる新しいニューラルネットワーク構造を提案する。
残余要素に電力項を追加することで、アーキテクチャはネットワークの表現力を高める。
本研究は,ネットワーク深さ,幅,最適化手法について検討し,アーキテクチャの適応性と性能上の優位性を示す。
一貫して,提案するパワーエンハンシング残差ネットワーク,特に非スムース関数の異常精度を強調する。
実世界の例では、正確性、収束性、効率性の点で、普通のニューラルネットワークよりも優れていることも確認されている。
この研究は、より深いネットワークの影響も調べている。
さらに、提案アーキテクチャは逆バーガー方程式の解法にも適用され、優れた性能を示す。
結論として、パワーエンハンシング残余ネットワークは、ニューラルネットワークの機能を大幅に強化する汎用的なソリューションを提供する。
実装されたコードは、 \url{https://github.com/cmmai/resnet_for_pinn} で利用可能である。
関連論文リスト
- A Heterogeneous Dynamic Convolutional Neural Network for Image
Super-resolution [111.97970576223622]
画像超解像(HDSRNet)における異種動的畳み込みネットワークを提案する。
下位のネットワークは対称アーキテクチャを使用して、異なるレイヤの関係を強化し、より構造的な情報をマイニングする。
実験結果から,HDSRNetは画像解決に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-02-24T03:44:06Z) - Complexity of Deep Neural Networks from the Perspective of Functional
Equivalence [1.3597551064547502]
機能的等価性の概念を考察し、異なるネットワークパラメータ化が同じ機能をもたらすことを示唆する。
本稿では,畳み込みニューラルネットワーク,残差ネットワーク,注意に基づくモデルの拡張について論じる。
論文 参考訳(メタデータ) (2023-05-19T04:01:27Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Multi-agent Reinforcement Learning with Graph Q-Networks for Antenna
Tuning [60.94661435297309]
モバイルネットワークの規模は、手作業による介入や手作業による戦略を使ってアンテナパラメータの最適化を困難にしている。
本研究では,モバイルネットワーク構成をグローバルに最適化するマルチエージェント強化学習アルゴリズムを提案する。
シミュレーション環境におけるアンテナ傾き調整問題とジョイント傾き・電力制御問題に対するアルゴリズムの性能を実証的に示す。
論文 参考訳(メタデータ) (2023-01-20T17:06:34Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Deepening Neural Networks Implicitly and Locally via Recurrent Attention
Strategy [6.39424542887036]
リカレントアテンション戦略は、局所パラメータ共有により、軽量アテンションモジュールによるニューラルネットワークの深さを暗黙的に増加させる。
広く使用されている3つのベンチマークデータセットの実験は、RASがパラメータサイズと計算をわずかに増やすことで、ニューラルネットワークのパフォーマンスを向上させることを実証している。
論文 参考訳(メタデータ) (2022-10-27T13:09:02Z) - DProtoNet: Decoupling the inference module and the explanation module
enables neural networks to have better accuracy and interpretability [5.333582981327497]
従来の方法では、ニューラルネットワークのアーキテクチャを変更することで、ネットワークは人間の推論プロセスをシミュレートする。
本稿では,DProtoNet(Decoupling Prototypeal Network)を提案する。
解釈モジュールからニューラルネットワーク推論モジュールを分離し、解釈可能なネットワークの特定のアーキテクチャ上の制限を取り除く。
論文 参考訳(メタデータ) (2022-10-15T17:05:55Z) - Graph-based Algorithm Unfolding for Energy-aware Power Allocation in
Wireless Networks [27.600081147252155]
我々は,無線通信網におけるエネルギー効率を最大化する新しいグラフ要約フレームワークを開発した。
無線ネットワークデータのモデルに望ましい特性である置換訓練について述べる。
結果は、異なるネットワークトポロジにまたがる一般化可能性を示している。
論文 参考訳(メタデータ) (2022-01-27T20:23:24Z) - Rethinking and Improving the Robustness of Image Style Transfer [70.86976598145111]
トレーニング済みのVGGネットワークによって抽出された特徴間の相関は、画像の視覚的スタイルをキャプチャする顕著な能力を有することを示す。
この品質は堅牢ではなく、より先進的で軽量なネットワークの機能に適用すると、しばしば大幅に劣化する。
本稿では,そのエントロピーを高める機能アクティベーションのソフトマックス変換に基づく解を提案する。
論文 参考訳(メタデータ) (2021-04-08T03:24:45Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。