論文の概要: Basis-to-Basis Operator Learning Using Function Encoders
- arxiv url: http://arxiv.org/abs/2410.00171v2
- Date: Tue, 12 Nov 2024 15:30:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:16:32.628331
- Title: Basis-to-Basis Operator Learning Using Function Encoders
- Title(参考訳): 関数エンコーダを用いたBasis-to-Basis演算子学習
- Authors: Tyler Ingebrand, Adam J. Thorpe, Somdatta Goswami, Krishna Kumar, Ufuk Topcu,
- Abstract要約: 本稿では、ヒルベルト空間上の演算子を学習するための新しいアプローチであるB2B演算子学習について述べる。
固有分解や特異値分解と直接類似した演算子学習アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 16.128154294012543
- License:
- Abstract: We present Basis-to-Basis (B2B) operator learning, a novel approach for learning operators on Hilbert spaces of functions based on the foundational ideas of function encoders. We decompose the task of learning operators into two parts: learning sets of basis functions for both the input and output spaces and learning a potentially nonlinear mapping between the coefficients of the basis functions. B2B operator learning circumvents many challenges of prior works, such as requiring data to be at fixed locations, by leveraging classic techniques such as least squares to compute the coefficients. It is especially potent for linear operators, where we compute a mapping between bases as a single matrix transformation with a closed-form solution. Furthermore, with minimal modifications and using the deep theoretical connections between function encoders and functional analysis, we derive operator learning algorithms that are directly analogous to eigen-decomposition and singular value decomposition. We empirically validate B2B operator learning on seven benchmark operator learning tasks and show that it demonstrates a two-orders-of-magnitude improvement in accuracy over existing approaches on several benchmark tasks.
- Abstract(参考訳): 本稿では,関数エンコーダの基本概念に基づくヒルベルト空間上の演算子を学習するための新しい手法であるBasis-to-Basis(B2B)演算子学習を提案する。
演算子のタスクは入力空間と出力空間の両方の基底関数の集合を学習し、基底関数の係数間の潜在的非線形マッピングを学習する。
B2B演算子学習は、最小二乗法のような古典的な手法を活用して係数を計算することで、データの固定位置での要求など、先行研究の多くの課題を回避している。
特に線型作用素には有益であり、そこでは閉形式解を持つ単一の行列変換として基底間の写像を計算する。
さらに、最小限の変更と関数エンコーダと関数解析との深い理論的接続を用いることで、固有分解や特異値分解と直接類似する演算子学習アルゴリズムを導出する。
我々は,B2B演算子学習を7つのベンチマーク演算子学習タスクで実証的に検証し,既存のベンチマーク演算子よりも精度が2次改善されたことを示す。
関連論文リスト
- Learning Partial Differential Equations with Deep Parallel Neural Operators [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Data Complexity Estimates for Operator Learning [4.056627267544063]
我々は,演算子学習のデータ複雑性を研究する理論を開発した。
より狭い演算子のクラスにおいて、チューナブルパラメータの数の観点からFNOによって効率的に近似されることで、効率的な演算子学習がデータ複雑性においても達成可能であることを示す。
論文 参考訳(メタデータ) (2024-05-25T00:16:21Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Basis Function Encoding of Numerical Features in Factorization Machines
for Improved Accuracy [2.3022070933226217]
FM変種に数値的特徴を組み込む体系的・理論的に最適化された方法を提案する。
提案手法は,選択した関数の集合にまたがる数値特徴の分数化関数を学習するモデルであることを示す。
本手法は,高速な学習と推論を保存し,FMモデルの計算グラフのわずかな修正しか必要としない。
論文 参考訳(メタデータ) (2023-05-23T21:10:17Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Deep learning with transfer functions: new applications in system
identification [0.0]
本稿では,自動微分計算のためのよく定義された効率的なバックプロパゲーション挙動を付与した線形動的作用素を提案する。
このオペレータは、線形転送関数と他の微分可能なユニットを含む構造化ネットワークのエンドツーエンドトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-20T08:58:55Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。