論文の概要: Data-Driven Integration Kernels for Interpretable Nonlocal Operator Learning
- arxiv url: http://arxiv.org/abs/2603.10305v1
- Date: Wed, 11 Mar 2026 01:05:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.740208
- Title: Data-Driven Integration Kernels for Interpretable Nonlocal Operator Learning
- Title(参考訳): 解釈可能な非局所演算子学習のためのデータ駆動型統合カーネル
- Authors: Savannah L. Ferretti, Jerry Lin, Sara Shamekh, Jane W. Baldwin, Michael S. Pritchard, Tom Beucler,
- Abstract要約: 機械学習モデルは、水平空間、高さ、時間において非局所的な気候過程を表現することができる。
これにより予測スキルが向上するが、非局所的な情報が大きくなるにつれて、学習関係の解釈が難しくなり、過度に適合する傾向がある。
非ローカルな演算子学習に構造を加えるフレームワークであるデータ駆動型統合カーネルを導入することで、この問題に対処する。
- 参考スコア(独自算出の注目度): 1.103623416551884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models can represent climate processes that are nonlocal in horizontal space, height, and time, often by combining information across these dimensions in highly nonlinear ways. While this can improve predictive skill, it makes learned relationships difficult to interpret and prone to overfitting as the extent of nonlocal information grows. We address this challenge by introducing data-driven integration kernels, a framework that adds structure to nonlocal operator learning by explicitly separating nonlocal information aggregation from local nonlinear prediction. Each spatiotemporal predictor field is first integrated using learnable kernels (defined as continuous weighting functions over horizontal space, height, and/or time), after which a local nonlinear mapping is applied only to the resulting kernel-integrated features and any optional local inputs. This design confines nonlinear interactions to a small set of integrated features and makes each kernel directly interpretable as a weighting pattern that reveals which horizontal locations, vertical levels, and past timesteps contribute most to the prediction. We demonstrate the framework for South Asian monsoon precipitation using a hierarchy of neural network models with increasing structure, including baseline, nonparametric kernel, and parametric kernel models. Across this hierarchy, kernel-based models achieve near-baseline performance with far fewer trainable parameters, showing that much of the relevant nonlocal information can be captured through a small set of interpretable integrations when appropriate structural constraints are imposed.
- Abstract(参考訳): 機械学習モデルは、水平空間、高さ、時間において非局所的な気候過程を表現することができる。
これにより予測スキルが向上するが、非局所的な情報が大きくなるにつれて、学習関係の解釈が難しくなり、過度に適合する傾向がある。
非局所情報集約を局所非線形予測から明示的に分離することにより、非局所演算子学習に構造を加えるフレームワークであるデータ駆動統合カーネルを導入することで、この問題に対処する。
各時空間予測体は、まず学習可能なカーネル(水平空間、高さ、および/または時間上の連続重み付け関数として定義される)を用いて統合され、その後、帰結するカーネル統合された特徴と任意の局所入力にのみ局所非線形マッピングが適用される。
この設計は、小さな統合された特徴に非線形相互作用を限定し、各カーネルを直接重み付けパターンとして解釈し、どの水平位置、垂直レベル、過去のタイムステップが予測に最も寄与しているかを明らかにする。
本稿では,ベースライン,非パラメトリックカーネル,パラメトリックカーネルモデルなどの構造が増加するニューラルネットワークモデルの階層構造を用いて,南アジアのモンスーン降水フレームワークを実証する。
この階層にまたがって、カーネルベースのモデルは、トレーニング可能なパラメータをはるかに少なくして、ほぼベースラインのパフォーマンスを達成する。
関連論文リスト
- Federated Learning of Nonlinear Temporal Dynamics with Graph Attention-based Cross-Client Interpretability [2.8582274879786684]
分散非線形システムにおいて,クライアント間の時間的相互依存性を学習するためのフレームワークを提案する。
中央サーバは、グラフ注意ネットワークを使用して、通信された潜在状態上のグラフ構造化されたニューラル状態遷移モデルを学ぶ。
解釈可能性について、学習したサーバ側遷移モデルのヤコビアンを注意係数に関連付け、クライアント間の時間的相互依存性を初めて解釈可能な特徴付けを提供する。
論文 参考訳(メタデータ) (2026-02-13T21:41:52Z) - Kernel Representation and Similarity Measure for Incomplete Data [55.62595187178638]
不完全データの類似性を測定することは、Webマイニング、レコメンデーションシステム、ユーザー行動分析において基本的な課題である。
従来のアプローチでは、不完全なデータを破棄するか、事前処理のステップとして計算を実行するかのいずれかであり、情報損失と類似性のバイアスが生じる。
本稿では,カーネルの特徴空間における不完全データ間の類似性を,元の空間における明示的な計算なしで直接計算する,新しい類似度尺度を提案する。
論文 参考訳(メタデータ) (2025-10-15T09:41:23Z) - Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems [7.807210884802377]
本稿では,カーネル設計による空間性,局所性,構造情報を活かした,新しいスケーラブルなGPOを提案する。
我々のフレームワークは、様々な離散化スケールで常に高い精度を達成できることを実証する。
論文 参考訳(メタデータ) (2025-06-18T22:40:52Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z) - Fast Estimation of Information Theoretic Learning Descriptors using
Explicit Inner Product Spaces [4.5497405861975935]
カーネル法は、信号処理や機械学習における非線形問題を解くため、理論的に座屈し、強力で汎用的な枠組みを形成する。
近年, NTカーネル適応フィルタ (KAF) を提案する。
我々は,内部積空間カーネルを用いたIPLの高速,スケーラブル,高精度な推定器群に着目した。
論文 参考訳(メタデータ) (2020-01-01T20:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。