論文の概要: Learning Functional Transduction
- arxiv url: http://arxiv.org/abs/2302.00328v1
- Date: Wed, 1 Feb 2023 09:14:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:15:57.545512
- Title: Learning Functional Transduction
- Title(参考訳): 関数変換の学習
- Authors: Mathieu Chalvidal, Thomas Serre and Rufin VanRullen
- Abstract要約: 本研究では, 伝達原理が勾配降下によって誘導され, 効率的な神経近似器が形成されることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するトランスダクティブアプローチの利点を実証する。
- 参考スコア(独自算出の注目度): 9.926231893220063
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research in Machine Learning has polarized into two general regression
approaches: Transductive methods derive estimates directly from available data
but are usually problem unspecific. Inductive methods can be much more
particular, but generally require tuning and compute-intensive searches for
solutions. In this work, we adopt a hybrid approach: We leverage the theory of
Reproducing Kernel Banach Spaces (RKBS) and show that transductive principles
can be induced through gradient descent to form efficient \textit{in-context}
neural approximators. We apply this approach to RKBS of function-valued
operators and show that once trained, our \textit{Transducer} model can capture
on-the-fly relationships between infinite-dimensional input and output
functions, given a few example pairs, and return new function estimates. We
demonstrate the benefit of our transductive approach to model complex physical
systems influenced by varying external factors with little data at a fraction
of the usual deep learning training computation cost for partial differential
equations and climate modeling applications.
- Abstract(参考訳): 機械学習の研究は、次の2つの一般的な回帰アプローチに偏った。 トランスダクティブメソッドは、利用可能なデータから直接見積を導出するが、通常は問題なしである。
帰納的手法はより特別であるが、一般にソリューションのチューニングと計算集約的な検索が必要である。
本稿では, カーネルバナッハ空間 (RKBS) の再現理論を応用し, 過渡的原理が勾配降下によって誘導され, 効率的な 'textit{in-context} 神経近似器を形成することを示す。
この手法を関数値演算子のRKBSに適用することにより、トレーニングが完了すれば、無限次元の入力関数と出力関数のオンザフライ関係をキャプチャし、いくつかの例を挙げて新しい関数推定値を返すことができることを示す。
偏微分方程式や気候モデリングアプリケーションのための通常の深層学習計算計算コストのごく一部で,データ量が少ない外部要因が影響する複雑な物理系をモデル化するトランスダクティブ・アプローチの利点を実証する。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Minimum-Norm Interpolation Under Covariate Shift [14.863831433459902]
高次元線形回帰に関する非分布研究は、テキシトベニンオーバーフィッティング(textitbenign overfitting)として知られる現象の同定につながった。
本稿では,移動学習環境における線形補間器の非漸近的過剰リスク境界を初めて証明する。
論文 参考訳(メタデータ) (2024-03-31T01:41:57Z) - Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Transformer Meets Boundary Value Inverse Problems [4.165221477234755]
変圧器を用いた深部直接サンプリング法は境界値逆問題のクラスを解くために提案される。
慎重に設計されたデータと再構成された画像の間に学習した逆演算子を評価することにより、リアルタイムな再構成を実現する。
論文 参考訳(メタデータ) (2022-09-29T17:45:25Z) - On Hypothesis Transfer Learning of Functional Linear Models [8.557392136621894]
再生カーネル空間(RKHS)フレームワークを用いて,関数線形回帰(FLR)のための伝達学習(TL)について検討する。
我々は、RKHS距離を用いてタスク間の類似度を測定し、RKHSの特性に関連付けられた情報の転送を行う。
2つのアルゴリズムが提案され、1つは正のソースが分かっているときに転送を行い、もう1つはアグリゲーションを利用してソースに関する事前情報なしでロバストな転送を行う。
論文 参考訳(メタデータ) (2022-06-09T04:50:16Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。