論文の概要: Frequency-adaptive Multi-scale Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2410.00053v1
- Date: Sat, 28 Sep 2024 14:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 15:19:28.262599
- Title: Frequency-adaptive Multi-scale Deep Neural Networks
- Title(参考訳): 周波数適応型マルチスケールディープニューラルネットワーク
- Authors: Jizu Huang, Rukang You, Tao Zhou,
- Abstract要約: 高周波関数を近似するための周波数適応型MscaleDNNを提案する。
これらのMscaleDNNは、標準的なMscaleDNNに比べて2~3桁の精度を向上する。
- 参考スコア(独自算出の注目度): 6.338572283139395
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-scale deep neural networks (MscaleDNNs) with downing-scaling mapping have demonstrated superiority over traditional DNNs in approximating target functions characterized by high frequency features. However, the performance of MscaleDNNs heavily depends on the parameters in the downing-scaling mapping, which limits their broader application. In this work, we establish a fitting error bound to explain why MscaleDNNs are advantageous for approximating high frequency functions. Building on this insight, we construct a hybrid feature embedding to enhance the accuracy and robustness of the downing-scaling mapping. To reduce the dependency of MscaleDNNs on parameters in the downing-scaling mapping, we propose frequency-adaptive MscaleDNNs, which adaptively adjust these parameters based on a posterior error estimate that captures the frequency information of the fitted functions. Numerical examples, including wave propagation and the propagation of a localized solution of the schr$\ddot{\text{o}}$dinger equation with a smooth potential near the semi-classical limit, are presented. These examples demonstrate that the frequency-adaptive MscaleDNNs improve accuracy by two to three orders of magnitude compared to standard MscaleDNNs.
- Abstract(参考訳): ダウンスケールマッピングを備えたマルチスケールディープニューラルネットワーク(MscaleDNN)は、高周波特性を特徴とする近似対象関数において、従来のDNNよりも優れていることを示す。
しかし、MscaleDNNの性能はダウンスケールマッピングのパラメータに大きく依存する。
本研究では、MscaleDNNが高周波関数の近似に有利である理由を説明するための適合誤差を確立する。
この知見に基づいて,ダウンスケールマッピングの精度と堅牢性を高めるために,ハイブリッド機能埋め込みを構築した。
ダウンスケールマッピングにおけるパラメータに対するMscaleDNNsの依存性を低減するため,周波数適応型MscaleDNNsを提案する。
半古典的極限付近の滑らかなポテンシャルを持つschr$\ddot{\text{o}}$dinger方程式の波動伝播と局所解の伝播を含む数値的な例を示す。
これらの例は、周波数適応型MscaleDNNが標準MscaleDNNに比べて2~3桁の精度を向上していることを示している。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Data-driven localized waves and parameter discovery in the massive
Thirring model via extended physics-informed neural networks with interface
zones [3.522950356329991]
深層学習を用いた大規模Thiring(MT)モデルにおいて,データ駆動型局所波動解とパラメータ発見について検討した。
高次局所波解に対しては、拡張PINN(XPINN)とドメイン分解を用いる。
実験結果から, XPINNsの改良により, 収束速度が速く, 計算の複雑さを低減できることがわかった。
論文 参考訳(メタデータ) (2023-09-29T13:50:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - PINNup: Robust neural network wavefield solutions using frequency
upscaling and neuron splitting [0.0]
本稿では,周波数アップスケーリングとニューロン分割を用いた新しいPINNの実装を提案する。
提案したPINNは収束と精度において顕著な優位性を示す。
2層モデルでニューロンベースの高周波波動場解が得られる。
論文 参考訳(メタデータ) (2021-09-29T16:35:50Z) - Neural Calibration for Scalable Beamforming in FDD Massive MIMO with
Implicit Channel Estimation [10.775558382613077]
チャネル推定とビームフォーミングは、周波数分割二重化(FDD)大規模マルチインプット多重出力(MIMO)システムにおいて重要な役割を果たす。
受信したアップリンクパイロットに応じて,基地局のビームフォーマを直接最適化する深層学習方式を提案する。
エンド・ツー・エンドの設計のスケーラビリティを向上させるために,ニューラルキャリブレーション法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:26:14Z) - Multi-scale Deep Neural Network (MscaleDNN) for Solving
Poisson-Boltzmann Equation in Complex Domains [12.09637784919702]
本稿では,周波数領域のラジアルスケーリングと,コンパクトなサポート付きアクティベーション関数を用いたマルチスケールディープニューラルネットワーク(MscaleDNN)を提案する。
その結果、MscaleDNNは複数のスケールで高速な均一収束を実現する。
論文 参考訳(メタデータ) (2020-07-22T05:28:03Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。