論文の概要: Symbolic Regression for Shared Expressions: Introducing Partial Parameter Sharing
- arxiv url: http://arxiv.org/abs/2601.04051v1
- Date: Wed, 07 Jan 2026 16:12:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.678664
- Title: Symbolic Regression for Shared Expressions: Introducing Partial Parameter Sharing
- Title(参考訳): 共有表現の記号的回帰:部分的パラメータ共有の導入
- Authors: Viktor Martinek, Roland Herzog,
- Abstract要約: シンボリック回帰においてパラメータ共有の中間レベルを導入する。
2つのカテゴリ変数では、中間レベルのパラメータ共有が出現する一方、パラメータはいずれかのカテゴリで共有されるが、他方では変更される。
我々は、類似の適合品質を実現するが、個々のパラメータを著しく少なくし、問題に関する追加情報を取り出す必要がある。
- 参考スコア(独自算出の注目度): 0.1058775777931017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Symbolic Regression aims to find symbolic expressions that describe datasets. Due to better interpretability, it is a machine learning paradigm particularly powerful for scientific discovery. In recent years, several works have expanded the concept to allow the description of similar phenomena using a single expression with varying sets of parameters, thereby introducing categorical variables. Some previous works allow only "non-shared" (category-value-specific) parameters, and others also incorporate "shared" (category-value-agnostic) parameters. We expand upon those efforts by considering multiple categorical variables, and introducing intermediate levels of parameter sharing. With two categorical variables, an intermediate level of parameter sharing emerges, i.e., parameters which are shared across either category but change across the other. The new approach potentially decreases the number of parameters, while revealing additional information about the problem. Using a synthetic, fitting-only example, we test the limits of this setup in terms of data requirement reduction and transfer learning. As a real-world symbolic regression example, we demonstrate the benefits of the proposed approach on an astrophysics dataset used in a previous study, which considered only one categorical variable. We achieve a similar fit quality but require significantly fewer individual parameters, and extract additional information about the problem.
- Abstract(参考訳): シンボリック回帰は、データセットを記述するシンボリック表現を見つけることを目的としている。
より優れた解釈可能性のため、特に科学的発見に強力な機械学習パラダイムである。
近年、いくつかの研究が同様の現象をパラメータの異なる単一の式で記述できるように拡張し、分類変数を導入している。
以前の研究では、"非共有"(カテゴリ値固有の)パラメータのみを許容し、"共有"(カテゴリ値に依存しない)パラメータも含んでいる。
我々は、複数のカテゴリ変数を考慮し、パラメータ共有の中間レベルを導入することで、これらの取り組みを拡大する。
2つのカテゴリ変数では、中間レベルのパラメータ共有が出現する。
この新しいアプローチは、問題に関する追加情報を明らかにしながら、パラメータの数を減少させる可能性がある。
本稿では,データ要求の低減と伝達学習の観点から,この設定の限界を総合的に検証する。
実世界の記号レグレッションの例として、提案手法の利点を1つのカテゴリー変数のみを考慮した以前の研究で用いた天体物理学データセットに示す。
我々は、類似の適合品質を実現するが、個々のパラメータを著しく少なくし、問題に関する追加情報を取り出す必要がある。
関連論文リスト
- Explaining Datasets in Words: Statistical Models with Natural Language Parameters [66.69456696878842]
本稿では, クラスタリング, 時系列, 分類モデルなど, 自然言語の述語によってパラメータ化される統計モデル群を紹介する。
当社のフレームワークは、ユーザチャット対話の分類、時間の経過とともにどのように進化するかの特徴付け、一方の言語モデルが他方よりも優れているカテゴリを見つけることなど、幅広い問題に適用しています。
論文 参考訳(メタデータ) (2024-09-13T01:40:20Z) - A distance for mixed-variable and hierarchical domains with meta variables [1.677718351174347]
不均一データセットは、さまざまな機械学習および最適化アプリケーションに現れる。
最初の主な貢献は、階層的、木構造的、変数サイズ、条件付き検索フレームワークを一般化するモデリングフレームワークである。
2つ目の寄与は、同じ変数を共有しない混合変数の任意の対を比較する新しい距離である。
論文 参考訳(メタデータ) (2024-05-20T23:11:03Z) - CAVIAR: Categorical-Variable Embeddings for Accurate and Robust Inference [0.2209921757303168]
社会科学の研究は、しばしば分類変数と結果の関係に頼っている。
本稿では,高次元空間における値を仮定するカテゴリ変数を埋め込む新しい手法であるCAVIARを紹介する。
論文 参考訳(メタデータ) (2024-04-07T14:47:07Z) - Gower's similarity coefficients with automatic weight selection [0.0]
混合型変数に対する最も一般的な相似性は、ゴーワーの類似性係数の1つを補うものとして導かれる。
重み付けスキームに関する議論は、しばしば非重み付けの「標準」設定が全体の相似性に対する単一の変数の不均衡な寄与を隠すことを無視するので、誤解を招くことがある。
この欠点は、各寄与相違性と結果の重み付け相違との相関関係を最小化する重み付けスキームを導入するという最近の考え方に倣って解決される。
論文 参考訳(メタデータ) (2024-01-30T14:21:56Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - VarCLR: Variable Semantic Representation Pre-training via Contrastive
Learning [84.70916463298109]
VarCLRは変数名のセマンティック表現を学ぶための新しいアプローチである。
VarCLRはコントラスト学習に適しており、明示的に類似した入力間の距離を最小化することを目的としている。
VarCLRはBERTのような洗練された汎用言語モデルを効果的に適用できることを示す。
論文 参考訳(メタデータ) (2021-12-05T18:40:32Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。