論文の概要: Learning Functional Transduction
- arxiv url: http://arxiv.org/abs/2302.00328v2
- Date: Thu, 18 May 2023 14:34:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 20:01:53.622031
- Title: Learning Functional Transduction
- Title(参考訳): 関数変換の学習
- Authors: Mathieu Chalvidal, Thomas Serre and Rufin VanRullen
- Abstract要約: そこで本研究では,トランスダクティブ回帰の原理を勾配降下によりメタ学習し,より効率的なインコンテキスト・ニューラル近似器を構築できることを示す。
我々は、データが少ない外部要因の影響を受け、複雑な物理システムをモデル化するためのメタ学習型トランスダクティブアプローチの利点を実証する。
- 参考スコア(独自算出の注目度): 9.926231893220063
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research in machine learning has polarized into two general approaches for
regression tasks: Transductive methods construct estimates directly from
available data but are usually problem unspecific. Inductive methods can be
much more specific but generally require compute-intensive solution searches.
In this work, we propose a hybrid approach and show that transductive
regression principles can be meta-learned through gradient descent to form
efficient in-context neural approximators by leveraging the theory of
vector-valued Reproducing Kernel Banach Spaces (RKBS). We apply this approach
to function spaces defined over finite and infinite-dimensional spaces
(function-valued operators) and show that once trained, the Transducer can
almost instantaneously capture an infinity of functional relationships given a
few pairs of input and output examples and return new image estimates. We
demonstrate the benefit of our meta-learned transductive approach to model
complex physical systems influenced by varying external factors with little
data at a fraction of the usual deep learning training computational cost for
partial differential equations and climate modeling applications.
- Abstract(参考訳): 機械学習の研究は、回帰タスクに対する2つの一般的なアプローチに偏った: トランスダクティブメソッドは、利用可能なデータから直接見積もりを構築するが、通常は問題に非依存である。
帰納的メソッドはもっと具体的だが、一般的には計算集約的なソリューション検索を必要とする。
本研究では, ベクトル値再生カーネルバナッハ空間(RKBS)の理論を活用することにより, 遷移回帰原理を勾配降下によりメタ学習し, 効率の良いインコンテキスト・ニューラル近似器を形成することを示す。
この手法を有限次元および無限次元の空間上で定義される函数空間(関数値演算子)に適用し、トレーニングが終わると、Transducerは入力と出力の2組の例を与えられた関数関係の無限大をほぼ瞬時に捕捉し、新しい画像推定を返却できることを示す。
偏微分方程式や気候モデリングアプリケーションのための通常のディープラーニングトレーニングの計算コストのごく一部で、データ量が少ない外部要因の影響を受けて、複雑な物理系をモデル化するメタリーナードトランスダクティブアプローチの利点を実証する。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - DeltaPhi: Learning Physical Trajectory Residual for PDE Solving [54.13671100638092]
我々は,物理軌道残差学習(DeltaPhi)を提案し,定式化する。
既存のニューラル演算子ネットワークに基づく残差演算子マッピングのサロゲートモデルについて学習する。
直接学習と比較して,PDEの解法には物理残差学習が望ましいと結論づける。
論文 参考訳(メタデータ) (2024-06-14T07:45:07Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Minimum-Norm Interpolation Under Covariate Shift [14.863831433459902]
高次元線形回帰に関する非分布研究は、テキシトベニンオーバーフィッティング(textitbenign overfitting)として知られる現象の同定につながった。
本稿では,移動学習環境における線形補間器の非漸近的過剰リスク境界を初めて証明する。
論文 参考訳(メタデータ) (2024-03-31T01:41:57Z) - Nonlinear functional regression by functional deep neural network with
kernel embedding [20.306390874610635]
本稿では,効率的かつ完全なデータ依存型次元減少法を備えた機能的ディープニューラルネットワークを提案する。
機能ネットのアーキテクチャは、カーネル埋め込みステップ、プロジェクションステップ、予測のための深いReLUニューラルネットワークで構成される。
スムーズなカーネル埋め込みを利用することで、我々の関数ネットは離散化不変であり、効率的で、頑健でノイズの多い観測が可能となる。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Transformer Meets Boundary Value Inverse Problems [4.165221477234755]
変圧器を用いた深部直接サンプリング法は境界値逆問題のクラスを解くために提案される。
慎重に設計されたデータと再構成された画像の間に学習した逆演算子を評価することにより、リアルタイムな再構成を実現する。
論文 参考訳(メタデータ) (2022-09-29T17:45:25Z) - On Hypothesis Transfer Learning of Functional Linear Models [8.557392136621894]
再生カーネル空間(RKHS)フレームワークを用いて,関数線形回帰(FLR)のための伝達学習(TL)について検討する。
我々は、RKHS距離を用いてタスク間の類似度を測定し、RKHSの特性に関連付けられた情報の転送を行う。
2つのアルゴリズムが提案され、1つは正のソースが分かっているときに転送を行い、もう1つはアグリゲーションを利用してソースに関する事前情報なしでロバストな転送を行う。
論文 参考訳(メタデータ) (2022-06-09T04:50:16Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。