論文の概要: FAME: Adaptive Functional Attention with Expert Routing for Function-on-Function Regression
- arxiv url: http://arxiv.org/abs/2510.00621v1
- Date: Wed, 01 Oct 2025 07:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.449968
- Title: FAME: Adaptive Functional Attention with Expert Routing for Function-on-Function Regression
- Title(参考訳): FAME: ファンクション・オン・ファンクション・レグレッションのためのエキスパートルーティングによる適応型機能アテンション
- Authors: Yifei Gao, Yong Chen, Chen Zhang,
- Abstract要約: FAME(Functional Attention with a Mixture-of-Experts)は、関数・オン・ファンクションの回帰のためのエンドツーエンドの完全なデータ駆動フレームワークである。
FAMEは、神経制御微分方程式とMoE駆動ベクトル場を結合して機能的連続性を捉えることで連続的な注意を形成する。
合成および実世界の汎関数回帰ベンチマークの実験により、FAMEは任意のサンプリングされた離散観測に対して、最先端の精度、強い堅牢性を達成することが示された。
- 参考スコア(独自算出の注目度): 15.00767095565706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Functional data play a pivotal role across science and engineering, yet their infinite-dimensional nature makes representation learning challenging. Conventional statistical models depend on pre-chosen basis expansions or kernels, limiting the flexibility of data-driven discovery, while many deep-learning pipelines treat functions as fixed-grid vectors, ignoring inherent continuity. In this paper, we introduce Functional Attention with a Mixture-of-Experts (FAME), an end-to-end, fully data-driven framework for function-on-function regression. FAME forms continuous attention by coupling a bidirectional neural controlled differential equation with MoE-driven vector fields to capture intra-functional continuity, and further fuses change to inter-functional dependencies via multi-head cross attention. Extensive experiments on synthetic and real-world functional-regression benchmarks show that FAME achieves state-of-the-art accuracy, strong robustness to arbitrarily sampled discrete observations of functions.
- Abstract(参考訳): 関数型データは科学や工学において重要な役割を担っているが、その無限次元の性質は表現学習を困難にしている。
従来の統計モデルは、コセン前のベース展開やカーネルに依存し、データ駆動型発見の柔軟性を制限する一方で、多くのディープラーニングパイプラインは関数を固定格子ベクトルとして扱い、固有の連続性を無視している。
本稿では,FAME(Mixture-of-Experts)という,関数・オン・ファンクション・レグレッションのためのエンドツーエンドで完全なデータ駆動型フレームワークについて紹介する。
FAMEは、双方向のニューラルコントロール微分方程式とMoE駆動ベクトル場を結合して、機能内連続性を捉えることで連続的な注意を生じさせ、さらに多頭部交叉による機能間依存への変化を融合させる。
合成および実世界の汎関数回帰ベンチマークに関する広範囲な実験は、FAMEが関数の離散的な観測を任意にサンプリングするために、最先端の精度、強い堅牢性を達成することを示している。
関連論文リスト
- Shape-Informed Clustering of Multi-Dimensional Functional Data via Deep Functional Autoencoders [3.899824115379245]
FAEclustは多次元関数データのクラスタ解析のための新しい機能的オートエンコーダフレームワークである。
本稿では, 成分関数間の複素非線形依存性をキャプチャするユニバーサル近似器エンコーダと, ユークリッド関数と多様体値関数の両方を正確に再構成できるユニバーサル近似器デコーダを紹介する。
論文 参考訳(メタデータ) (2025-09-26T22:10:23Z) - Provable In-Context Learning of Nonlinear Regression with Transformers [66.99048542127768]
In-context Learning (ICL) は、パラメータを更新することなくタスク固有のプロンプトを使用して見えないタスクを実行する能力である。
最近の研究はICLの背後にあるトレーニングのダイナミクスを積極的に探求しており、その多くは比較的単純なタスクに重点を置いている。
本稿では、変換器が文脈内学習能力をいかに獲得するかを明らかにすることを目的として、より複雑な非線形回帰タスクについて検討する。
論文 参考訳(メタデータ) (2025-07-28T00:09:28Z) - Function Forms of Simple ReLU Networks with Random Hidden Weights [1.2289361708127877]
無限幅限界における2層ReLUニューラルネットワークの関数空間ダイナミクスについて検討する。
ステアリング学習におけるフィッシャー情報行列の役割を強調した。
この研究は、広いニューラルネットワークを理解するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2025-05-23T13:53:02Z) - Q-function Decomposition with Intervention Semantics with Factored Action Spaces [51.01244229483353]
元の作用空間の低次元射影部分空間上で定義されるQ-函数を考察し、分解されたQ-函数の不偏性について考察する。
これにより、標準モデルフリー強化学習アルゴリズムにおいて、予測Q関数を用いてQ関数を近似する動作分解強化学習と呼ばれる一般的なスキームが導かれる。
論文 参考訳(メタデータ) (2025-04-30T05:26:51Z) - Bayesian Kernel Regression for Functional Data [1.4501446815590895]
教師付き学習では、予測される出力変数はしばしば関数として表現される。
カーネル手法に基づく関数出力回帰モデルを提案する。
論文 参考訳(メタデータ) (2025-03-17T19:28:27Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Modern Non-Linear Function-on-Function Regression [8.231050911072755]
本稿では,ニューラルネットワークを用いた関数データに対する非線形関数オン関数回帰モデルを提案する。
FDNN(Functional Direct Neural Network)とFBNN(Functional Basis Neural Network)の2つのモデルフィッティング戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T16:19:59Z) - A New Representation of Successor Features for Transfer across
Dissimilar Environments [60.813074750879615]
多くの実世界のRL問題は、異なるダイナミクスを持つ環境間での移動を必要とする。
ガウス過程を用いて後継特徴関数をモデル化する手法を提案する。
我々の理論的解析は、この手法の収束と、後続特徴関数のモデル化における有界誤差を証明している。
論文 参考訳(メタデータ) (2021-07-18T12:37:05Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。