論文の概要: Fourier-domain Variational Formulation and Its Well-posedness for
Supervised Learning
- arxiv url: http://arxiv.org/abs/2012.03238v1
- Date: Sun, 6 Dec 2020 11:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:50:26.208712
- Title: Fourier-domain Variational Formulation and Its Well-posedness for
Supervised Learning
- Title(参考訳): フーリエ領域変分定式化とその教師付き学習への応用
- Authors: Tao Luo and Zheng Ma and Zhiwei Wang and Zhi-Qin John Xu and Yaoyu
Zhang
- Abstract要約: 教師付き学習問題は、孤立したデータポイントの値が与えられた仮説関数空間内の関数を見つけることである。
ニューラルネットワークの周波数原理に着想を得て,教師付き学習問題に対するフーリエ領域変分法を提案する。
- 参考スコア(独自算出の注目度): 7.456846081669551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A supervised learning problem is to find a function in a hypothesis function
space given values on isolated data points. Inspired by the frequency principle
in neural networks, we propose a Fourier-domain variational formulation for
supervised learning problem. This formulation circumvents the difficulty of
imposing the constraints of given values on isolated data points in continuum
modelling. Under a necessary and sufficient condition within our unified
framework, we establish the well-posedness of the Fourier-domain variational
problem, by showing a critical exponent depending on the data dimension. In
practice, a neural network can be a convenient way to implement our
formulation, which automatically satisfies the well-posedness condition.
- Abstract(参考訳): 教師付き学習問題は、孤立したデータポイントの値が与えられた仮説関数空間内の関数を見つけることである。
ニューラルネットワークの周波数原理に触発されて,教師付き学習問題のフーリエ領域変分定式化を提案する。
この定式化は、連続体モデリングにおける孤立したデータポイントに与えられた値の制約を課すことの難しさを回避する。
統一フレームワークにおける必要十分条件の下では,データ次元に依存した臨界指数を示すことにより,フーリエ領域変動問題の適切性を確立する。
実際、ニューラルネットワークは、適切に配置された条件を自動的に満たすこの定式化を実装するための便利な方法になり得る。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Function Extrapolation with Neural Networks and Its Application for Manifolds [1.4579344926652844]
我々は、関数の事前知識を組み込むためにニューラルネットワークを訓練する。
問題を慎重に解析することにより、外挿領域上の誤差の上限を求める。
論文 参考訳(メタデータ) (2024-05-17T06:15:26Z) - Towards stable real-world equation discovery with assessing
differentiating quality influence [52.2980614912553]
一般的に用いられる有限差分法に代わる方法を提案する。
我々は,これらの手法を実問題と類似した問題に適用可能であること,および方程式発見アルゴリズムの収束性を確保する能力の観点から評価する。
論文 参考訳(メタデータ) (2023-11-09T23:32:06Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Fourier Sensitivity and Regularization of Computer Vision Models [11.79852671537969]
本稿では,ディープニューラルネットワークの周波数感度特性について,原理的アプローチを用いて検討する。
コンピュータビジョンモデルは、データセット、トレーニング方法、アーキテクチャに依存する特定の周波数に一貫して敏感であることがわかった。
論文 参考訳(メタデータ) (2023-01-31T10:05:35Z) - A cusp-capturing PINN for elliptic interface problems [0.0]
ネットワークに付加的な特徴入力としてカスプ強化レベルセット関数を導入し,本質的な解特性を維持する。
提案したニューラルネットワークはメッシュフリーの利点があるため、不規則なドメインでの問題を容易に処理できる。
本研究では,カスプキャプチャ手法の有効性とネットワークモデルの精度を実証するために,一連の数値実験を行った。
論文 参考訳(メタデータ) (2022-10-16T03:05:18Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Physics-Informed Neural Networks for Quantum Eigenvalue Problems [1.2891210250935146]
固有値問題は、科学と工学のいくつかの分野において重要な問題である。
我々は、教師なしニューラルネットワークを用いて、微分固有値問題に対する固有関数と固有値を発見する。
ネットワーク最適化はデータフリーであり、ニューラルネットワークの予測にのみ依存する。
論文 参考訳(メタデータ) (2022-02-24T18:29:39Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。