論文の概要: ViSymRe: Vision-guided Multimodal Symbolic Regression
- arxiv url: http://arxiv.org/abs/2412.11139v1
- Date: Sun, 15 Dec 2024 10:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:19.759932
- Title: ViSymRe: Vision-guided Multimodal Symbolic Regression
- Title(参考訳): ViSymRe:視覚誘導多モードシンボリック回帰
- Authors: Da Li, Junping Yin, Jin Xu, Xinxin Li, Juan Zhang,
- Abstract要約: 視覚誘導型マルチモーダルシンボル回帰モデルViSymReを提案する。
視覚、記号、数値を統合して、記号レグレッションを強化する。
これは単に数値的なフィッティングではなく、方程式の単純さと構造的合理性を強調している。
- 参考スコア(独自算出の注目度): 12.486013697763228
- License:
- Abstract: Symbolic regression automatically searches for mathematical equations to reveal underlying mechanisms within datasets, offering enhanced interpretability compared to black box models. Traditionally, symbolic regression has been considered to be purely numeric-driven, with insufficient attention given to the potential contributions of visual information in augmenting this process. When dealing with high-dimensional and complex datasets, existing symbolic regression models are often inefficient and tend to generate overly complex equations, making subsequent mechanism analysis complicated. In this paper, we propose the vision-guided multimodal symbolic regression model, called ViSymRe, that systematically explores how visual information can improve various metrics of symbolic regression. Compared to traditional models, our proposed model has the following innovations: (1) It integrates three modalities: vision, symbol and numeric to enhance symbolic regression, enabling the model to benefit from the strengths of each modality; (2) It establishes a meta-learning framework that can learn from historical experiences to efficiently solve new symbolic regression problems; (3) It emphasizes the simplicity and structural rationality of the equations rather than merely numerical fitting. Extensive experiments show that our proposed model exhibits strong generalization capability and noise resistance. The equations it generates outperform state-of-the-art numeric-only baselines in terms of fitting effect, simplicity and structural accuracy, thus being able to facilitate accurate mechanism analysis and the development of theoretical models.
- Abstract(参考訳): シンボリック回帰は、ブラックボックスモデルと比較して高い解釈性を提供するため、データセットの基盤となるメカニズムを明らかにするために、自動的に数学的方程式を探索する。
伝統的に、記号レグレッションは純粋に数値駆動であると考えられており、この過程を拡大する際の視覚情報の潜在的貢献に十分な注意が払われている。
高次元および複雑なデータセットを扱う場合、既存の記号回帰モデルはしばしば非効率であり、過度に複雑な方程式を生成する傾向があるため、その後のメカニズム解析は複雑になる。
本稿では視覚誘導型多モードシンボル回帰モデルViSymReを提案する。
従来のモデルと比較して,提案モデルでは,(1)視覚,記号,数値の3つのモダリティを統合し,各モダリティの強みを生かし,モデルが各モダリティの強みから恩恵を受けられるようにし,(2)歴史的経験から学習し,新しいシンボルレグレッション問題を効率的に解決できるメタラーニングフレームワークを構築し,(3)方程式の単純さと構造的合理性を強調する。
大規模な実験により,提案モデルが強い一般化能力と耐雑音性を示すことが示された。
それらが生成する方程式は、適合効果、単純性、構造的精度の点で、最先端の数値のみのベースラインを上回り、正確な機構解析と理論モデルの開発を容易にすることができる。
関連論文リスト
- Test-time regression: a unifying framework for designing sequence models with associative memory [24.915262407519876]
実効的なシーケンスモデルでは連想的リコールを実行できなければならないことを示す。
私たちのキーとなる洞察は、連想メモリを通じて入力トークンを記憶することは、テスト時に回帰を実行することと等価であるということです。
線形アテンションモデル、ゲート変数、状態空間モデル、オンライン学習者、ソフトマックスアテンションなどを含む最近のアーキテクチャは、テスト時間回帰に対する特定のアプローチとして自然に現れています。
論文 参考訳(メタデータ) (2025-01-21T18:32:31Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - Discovering interpretable elastoplasticity models via the neural
polynomial method enabled symbolic regressions [0.0]
従来のニューラルネットワークの弾塑性モデルは、しばしば解釈可能性に欠けると見なされる。
本稿では,人間専門家が解釈可能な数学的モデルを返す2段階の機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T22:22:32Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Inferring the Structure of Ordinary Differential Equations [12.202646598683888]
我々は,AIFeynman(Udrescu et al., 2020)と呼ばれるアプローチを動的設定に拡張し,ODEシステム上でシンボリックレグレッションを実行する。
この拡張を、複雑性を増大させる基底的真理方程式が利用できるいくつかの力学系において経験的に象徴的回帰に対する最先端のアプローチと比較する。
論文 参考訳(メタデータ) (2021-07-05T07:55:05Z) - SymbolicGPT: A Generative Transformer Model for Symbolic Regression [3.685455441300801]
シンボル回帰のための新しいトランスフォーマーベース言語モデルであるSybolicGPTを提案する。
本モデルでは,精度,実行時間,データ効率に関して,競合モデルと比較して高い性能を示す。
論文 参考訳(メタデータ) (2021-06-27T03:26:35Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - Nonparametric Trace Regression in High Dimensions via Sign Series
Representation [13.37650464374017]
高次元関数の構造的符号系列表現による非パラメトリックトレース回帰モデルのためのフレームワークを開発する。
行列完備化の文脈において、我々のフレームワークは、行列の「符号ランク」と呼ばれるものに基づいて、かなりリッチなモデルへと導かれる。
論文 参考訳(メタデータ) (2021-05-04T22:20:00Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。