論文の概要: Decomposable Neuro Symbolic Regression
- arxiv url: http://arxiv.org/abs/2511.04124v1
- Date: Thu, 06 Nov 2025 07:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.342494
- Title: Decomposable Neuro Symbolic Regression
- Title(参考訳): Decomposable Neuro Symbolic Regression
- Authors: Giorgio Morales, John W. Sheppard,
- Abstract要約: 解釈可能な多変量式を生成する除算可能なシンボリック回帰(SR)法を提案する。
提案手法は, 学習された不透明な回帰モデルを, 計算関数の説明として機能する数学的表現に蒸留する。
- 参考スコア(独自算出の注目度): 8.450904497835262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic regression (SR) models complex systems by discovering mathematical expressions that capture underlying relationships in observed data. However, most SR methods prioritize minimizing prediction error over identifying the governing equations, often producing overly complex or inaccurate expressions. To address this, we present a decomposable SR method that generates interpretable multivariate expressions leveraging transformer models, genetic algorithms (GAs), and genetic programming (GP). In particular, our explainable SR method distills a trained ``opaque'' regression model into mathematical expressions that serve as explanations of its computed function. Our method employs a Multi-Set Transformer to generate multiple univariate symbolic skeletons that characterize how each variable influences the opaque model's response. We then evaluate the generated skeletons' performance using a GA-based approach to select a subset of high-quality candidates before incrementally merging them via a GP-based cascade procedure that preserves their original skeleton structure. The final multivariate skeletons undergo coefficient optimization via a GA. We evaluated our method on problems with controlled and varying degrees of noise, demonstrating lower or comparable interpolation and extrapolation errors compared to two GP-based methods, three neural SR methods, and a hybrid approach. Unlike them, our approach consistently learned expressions that matched the original mathematical structure.
- Abstract(参考訳): シンボリック回帰(SR)は、観測データ中の基礎となる関係を捉える数学的表現を発見し、複雑なシステムをモデル化する。
しかし、ほとんどのSR手法は、支配方程式を識別するよりも予測誤差の最小化を優先し、しばしば過度に複雑あるいは不正確な表現を生成する。
そこで本研究では,トランスフォーマモデル,遺伝的アルゴリズム(GA),遺伝的プログラミング(GP)を活用した,解釈可能な多変量表現を生成する分解可能なSR法を提案する。
特に,我々の説明可能なSR法では,学習した 'opaque'' の回帰モデルを数学的表現に蒸留し,その計算関数の説明として機能する。
提案手法はマルチセット変換器を用いて,各変数が不透明モデルの応答にどのように影響するかを特徴付ける,複数の単変量シンボル骨格を生成する。
そこで我々は,GAに基づく手法を用いて生成した骨格の性能を評価し,それらをGPベースのカスケード法で段階的にマージする前に高品質な候補のサブセットを選択する。
最終多変量骨格はGAを介して係数最適化を行う。
本手法は,2つのGP法,3つのニューラルSR法,ハイブリッドアプローチと比較して,低あるいは同等の補間および外挿誤差を示す。
それらとは異なり、我々のアプローチは元の数学的構造と一致する表現を一貫して学習した。
関連論文リスト
- Univariate Skeleton Prediction in Multivariate Systems Using Transformers [0.0]
本稿では,各変数がシステムの応答にどのように影響するかを説明することを目的とした,一変量シンボリックスケルトンを生成する説明可能なニューラルSR法を提案する。
実験により,本手法は基礎となる機能に適合する骨格表現を学習し,GPベースと2つのニューラルSR法より優れていることが示された。
論文 参考訳(メタデータ) (2024-06-25T15:07:06Z) - ParFam -- (Neural Guided) Symbolic Regression Based on Continuous Global Optimization [14.146976111782466]
我々は、離散的記号回帰問題を連続的な問題に変換するために、新しいアプローチであるParFamを提案する。
グローバルな手法と組み合わせることで、SRの問題に対処する非常に効果的な手法がもたらされる。
また、ParFamをガイドするために、事前訓練されたトランスフォーマーネットワークDL-ParFamを組み込んだ拡張も提案する。
論文 参考訳(メタデータ) (2023-10-09T09:01:25Z) - Heterogeneous Multi-Task Gaussian Cox Processes [61.67344039414193]
異種相関タスクを共同でモデル化するためのマルチタスクガウスコックスプロセスの新たな拡張を提案する。
MOGPは、分類、回帰、ポイントプロセスタスクの専用可能性のパラメータに先行して、異種タスク間の情報の共有を容易にする。
モデルパラメータを推定するための閉形式反復更新を実現する平均場近似を導出する。
論文 参考訳(メタデータ) (2023-08-29T15:01:01Z) - A Deep Unrolling Model with Hybrid Optimization Structure for Hyperspectral Image Deconvolution [50.13564338607482]
本稿では,DeepMixと呼ばれるハイパースペクトルデコンボリューション問題に対する新しい最適化フレームワークを提案する。
これは3つの異なるモジュール、すなわちデータ一貫性モジュール、手作りの正規化器の効果を強制するモジュール、および装飾モジュールで構成されている。
本研究は,他のモジュールの協調作業によって達成される進歩を維持するために設計された,文脈を考慮した認知型モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - Transformer-based Planning for Symbolic Regression [18.90700817248397]
シンボリック・レグレッションのためのトランスフォーマーに基づく計画戦略であるTPSRを提案する。
従来の復号法とは異なり、TPSRは精度や複雑さなど、微分不可能なフィードバックの統合を可能にする。
我々の手法は最先端の手法より優れており、モデルの適合・複雑性トレードオフ、象徴的能力、騒音に対する堅牢性を高めている。
論文 参考訳(メタデータ) (2023-03-13T03:29:58Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Estimation of Switched Markov Polynomial NARX models [75.91002178647165]
非線形自己回帰(NARX)成分を特徴とするハイブリッド力学系のモデル群を同定する。
提案手法は, 特定の回帰器を持つ3つの非線形サブモデルからなるSMNARX問題に対して実証される。
論文 参考訳(メタデータ) (2020-09-29T15:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。