論文の概要: Hilbert Neural Operator: Operator Learning in the Analytic Signal Domain
- arxiv url: http://arxiv.org/abs/2508.04882v1
- Date: Wed, 06 Aug 2025 21:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.642919
- Title: Hilbert Neural Operator: Operator Learning in the Analytic Signal Domain
- Title(参考訳): ヒルベルト・ニューラル演算子:解析信号領域における演算子学習
- Authors: Saman Pordanesh, Pejman Shahsavari, Hossein Ghadjari,
- Abstract要約: 我々は,新しいニューラル演算子アーキテクチャである textbfHilbert Neural Operator (HNO) を導入する。
HNOは、まず入力信号をヒルベルト変換を介してその解析表現にマッピングすることによって機能する。
このアーキテクチャによりHNOは、因果系、位相感受性系、非定常系の演算子をより効果的にモデル化できるという仮説を立てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as a powerful, data-driven paradigm for learning solution operators of partial differential equations (PDEs). State-of-the-art architectures, such as the Fourier Neural Operator (FNO), have achieved remarkable success by performing convolutions in the frequency domain, making them highly effective for a wide range of problems. However, this method has some limitations, including the periodicity assumption of the Fourier transform. In addition, there are other methods of analysing a signal, beyond phase and amplitude perspective, and provide us with other useful information to learn an effective network. We introduce the \textbf{Hilbert Neural Operator (HNO)}, a new neural operator architecture to address some advantages by incorporating a strong inductive bias from signal processing. HNO operates by first mapping the input signal to its analytic representation via the Hilbert transform, thereby making instantaneous amplitude and phase information explicit features for the learning process. The core learnable operation -- a spectral convolution -- is then applied to this Hilbert-transformed representation. We hypothesize that this architecture enables HNO to model operators more effectively for causal, phase-sensitive, and non-stationary systems. We formalize the HNO architecture and provide the theoretical motivation for its design, rooted in analytic signal theory.
- Abstract(参考訳): ニューラル演算子は偏微分方程式(PDE)の解演算子を学習するための強力なデータ駆動パラダイムとして登場した。
フーリエ・ニューラル・オペレータ(FNO)のような最先端のアーキテクチャは周波数領域で畳み込みを行い、幅広い問題に対して非常に効果的である。
しかし、この方法にはフーリエ変換の周期性仮定を含むいくつかの制限がある。
さらに、位相と振幅の観点を超えて信号を解析し、有効なネットワークを学習するための有用な情報を提供する方法が他にもある。
我々は,信号処理からの強い帰納バイアスを取り入れることで,いくつかの利点に対処する新しいニューラル演算子アーキテクチャである「textbf{Hilbert Neural Operator (HNO)}」を紹介する。
HNOは、まず入力信号をヒルベルト変換を介して解析表現にマッピングすることにより、学習プロセスの即時振幅と位相情報を明確にする。
コア学習可能な演算(スペクトル畳み込み)は、このヒルベルト変換表現に適用される。
このアーキテクチャによりHNOは、因果系、位相感受性系、非定常系の演算子をより効果的にモデル化できるという仮説を立てる。
我々はHNOアーキテクチャを形式化し、解析信号理論に根ざした設計の理論的動機を提供する。
関連論文リスト
- Fourier Neural Operators for Non-Markovian Processes:Approximation Theorems and Experiments [2.84475965465923]
本稿では,ミラーパッド型ニューラル演算子(MFNO)を演算子ベースニューラルネットワークとして導入する。
MFNOはミラーパディングを組み込むことで標準的なフーリエニューラル演算子(FNO)を拡張し、非周期的な入力を処理することができる。
我々は、MFNOsが経路依存微分方程式の解と分数的ブラウン運動の任意の精度への変換を近似できることを厳密に証明する。
論文 参考訳(メタデータ) (2025-07-23T19:30:34Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - How important are specialized transforms in Neural Operators? [9.809251473887594]
本稿では,変換型ニューラル演算子の成功に対する変換層の重要性について検討する。
驚いたことに、線形層は最もよく知られた変換ベースの層に匹敵する性能を提供するのに十分である。
論文 参考訳(メタデータ) (2023-08-18T04:35:13Z) - Nonlocality and Nonlinearity Implies Universality in Operator Learning [8.83910715280152]
ニューラル作用素アーキテクチャは、無限次元バナッハ空間の間の作用素を近似する。
函数空間間の作用素の一般近似が非局所的かつ非線形であることは明らかである。
これら2つの属性をどのように組み合わせて、普遍近似を導出するかを示す。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。