論文の概要: Multi-Operator Few-Shot Learning for Generalization Across PDE Families
- arxiv url: http://arxiv.org/abs/2508.01211v1
- Date: Sat, 02 Aug 2025 06:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.760149
- Title: Multi-Operator Few-Shot Learning for Generalization Across PDE Families
- Title(参考訳): PDEファミリ間の一般化のためのマルチオペレータFew-Shot学習
- Authors: Yile Li, Shandian Zhe,
- Abstract要約: 本稿では,PDE演算子を一般化することを目的とした,マルチオペレータによる複数ショット学習のための統一フレームワークを提案する。
提案手法は,(i)共有フーリエニューラル演算子(FNO)エンコーダのマルチタスクによる事前学習,(ii)入力出力フィールドの統計的要約から得られるテキスト条件付き演算子埋め込み,(iii)メモリ拡張マルチモーダルプロンプトの3つの重要な要素を統合する。
Darcy Flow や Navier Stokes の変種を含む PDE ベンチマークの実験は、我々のモデルが数ショットの一般化で既存の演算子学習ベースラインより優れていることを示した。
- 参考スコア(独自算出の注目度): 17.225653683970393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning solution operators for partial differential equations (PDEs) has become a foundational task in scientific machine learning. However, existing neural operator methods require abundant training data for each specific PDE and lack the ability to generalize across PDE families. In this work, we propose MOFS: a unified multimodal framework for multi-operator few-shot learning, which aims to generalize to unseen PDE operators using only a few demonstration examples. Our method integrates three key components: (i) multi-task self-supervised pretraining of a shared Fourier Neural Operator (FNO) encoder to reconstruct masked spatial fields and predict frequency spectra, (ii) text-conditioned operator embeddings derived from statistical summaries of input-output fields, and (iii) memory-augmented multimodal prompting with gated fusion and cross-modal gradient-based attention. We adopt a two-stage training paradigm that first learns prompt-conditioned inference on seen operators and then applies end-to-end contrastive fine-tuning to align latent representations across vision, frequency, and text modalities. Experiments on PDE benchmarks, including Darcy Flow and Navier Stokes variants, demonstrate that our model outperforms existing operator learning baselines in few-shot generalization. Extensive ablations validate the contributions of each modality and training component. Our approach offers a new foundation for universal and data-efficient operator learning across scientific domains.
- Abstract(参考訳): 偏微分方程式(PDE)の学習解演算子は、科学機械学習の基本課題となっている。
しかし、既存のニューラル演算子は、特定のPDEごとに豊富なトレーニングデータを必要とし、PDEファミリー全体にわたって一般化する能力は欠如している。
本研究はMOFS(MOFS: Unified Multimodal framework for multi-operative few-shot learning)を提案する。
我々の方法には3つの重要な要素が組み合わさっている。
一 共有フーリエニューラル演算子(FNO)エンコーダのマルチタスク自己指導事前訓練により、マスクされた空間場を再構成し、周波数スペクトルを予測すること。
二 入力出力フィールドの統計的要約から得られたテキスト条件付き演算子埋め込み及び
三 メモリ拡張マルチモーダルは、ゲート融合とクロスモーダル勾配に基づく注意を刺激する。
2段階の訓練パラダイムを導入し、まず、目に見える演算子に対する条件付き推論を学習し、次に、視覚、周波数、テキストのモダリティをまたいで遅延表現を調整するために、エンドツーエンドのコントラスト微調整を適用します。
Darcy Flow や Navier Stokes の変種を含む PDE ベンチマークの実験は、我々のモデルが数ショットの一般化で既存の演算子学習ベースラインより優れていることを示した。
徹底的な改善は、各モダリティとトレーニングコンポーネントの貢献を検証する。
我々のアプローチは、科学領域をまたいだ普遍的でデータ効率の高い演算子学習のための新しい基盤を提供する。
関連論文リスト
- On Domain-Adaptive Post-Training for Multimodal Large Language Models [72.67107077850939]
本稿では,MLLMのドメイン適応をポストトレーニングにより体系的に検討する。
データ合成、トレーニングパイプライン、タスク評価に重点を置いています。
バイオメディシン、食品、リモートセンシングなどの高インパクト領域で実験を行う。
論文 参考訳(メタデータ) (2024-11-29T18:42:28Z) - DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - LeMON: Learning to Learn Multi-Operator Networks [0.6554326244334868]
シングルオペレータ学習では、特定のオペレータを学ぶために、ディープニューラルネットワークをトレーニングする。
マルチオペレータ学習における最近の研究は、演算子埋め込み構造を使用して、複数の演算子のデータ上で単一のニューラルネットワークをトレーニングしている。
マルチオペレータ学習を用いてPDEを解くための事前学習および微調整戦略を提案する。
論文 参考訳(メタデータ) (2024-08-28T23:20:03Z) - XTrack: Multimodal Training Boosts RGB-X Video Object Trackers [88.72203975896558]
マルチモーダルセンシングから得られる知識を効果的に共有することが重要である。
異なるモダリティにまたがる類似のサンプルは、他のものよりも多くの知識を共有できる。
提案手法は,現在のSOTAよりも平均+3%精度が向上したRGB-Xトラッカーである。
論文 参考訳(メタデータ) (2024-05-28T03:00:58Z) - Towards a Foundation Model for Partial Differential Equations: Multi-Operator Learning and Extrapolation [4.286691905364396]
本稿では,PROSE-PDEという科学問題に対するマルチモーダル基礎モデルを提案する。
本モデルは,物理系の制御方程式を並列に学習しながら,システムの将来の状態を予測できるマルチオペレータ学習手法である。
論文 参考訳(メタデータ) (2024-04-18T17:34:20Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - DEPHN: Different Expression Parallel Heterogeneous Network using virtual
gradient optimization for Multi-task Learning [1.0705399532413615]
マルチタスク学習(MTL)に基づく推薦システムアルゴリズムは、インターネットオペレーターがユーザを理解し、その振る舞いを予測する主要な方法である。
従来のモデルでは、共有ボットモデルとゲーティングの専門家を使用して、共有表現学習と情報の差別化を実現している。
本稿では,複数のタスクを同時にモデル化するための異なる表現並列不均一ネットワーク(DEPHN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T04:29:00Z) - Beyond Just Vision: A Review on Self-Supervised Representation Learning
on Multimodal and Temporal Data [10.006890915441987]
自己教師型学習の普及は、従来のモデルがトレーニングに大量の十分な注釈付きデータを必要とするという事実によって引き起こされる。
モデルの差別的事前学習を通じて、訓練データの効率を向上させるための自己指導手法が導入された。
我々は,時間的データに対するマルチモーダルな自己教師型学習手法の総合的なレビューを初めて提供することを目的とする。
論文 参考訳(メタデータ) (2022-06-06T04:59:44Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。