論文の概要: Call for Action: towards the next generation of symbolic regression benchmark
- arxiv url: http://arxiv.org/abs/2505.03977v1
- Date: Tue, 06 May 2025 21:02:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.916811
- Title: Call for Action: towards the next generation of symbolic regression benchmark
- Title(参考訳): Call for Action: 次世代のシンボルレグレッションベンチマークに向けて
- Authors: Guilherme S. Imai Aldeia, Hengzhe Zhang, Geoffrey Bomarito, Miles Cranmer, Alcides Fonseca, Bogdan Burlacu, William G. La Cava, Fabrício Olivetti de França,
- Abstract要約: 記号回帰は解釈可能な数学的表現を発見するための強力なテクニックである。
SR手法のベンチマークはアルゴリズム、データセット、評価基準の多様性のために依然として難しい。
- 参考スコア(独自算出の注目度): 2.7253033812941387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Symbolic Regression (SR) is a powerful technique for discovering interpretable mathematical expressions. However, benchmarking SR methods remains challenging due to the diversity of algorithms, datasets, and evaluation criteria. In this work, we present an updated version of SRBench. Our benchmark expands the previous one by nearly doubling the number of evaluated methods, refining evaluation metrics, and using improved visualizations of the results to understand the performances. Additionally, we analyze trade-offs between model complexity, accuracy, and energy consumption. Our results show that no single algorithm dominates across all datasets. We propose a call for action from SR community in maintaining and evolving SRBench as a living benchmark that reflects the state-of-the-art in symbolic regression, by standardizing hyperparameter tuning, execution constraints, and computational resource allocation. We also propose deprecation criteria to maintain the benchmark's relevance and discuss best practices for improving SR algorithms, such as adaptive hyperparameter tuning and energy-efficient implementations.
- Abstract(参考訳): 記号回帰(SR)は解釈可能な数学的表現を発見するための強力な手法である。
しかし、アルゴリズム、データセット、評価基準の多様性のため、SR手法のベンチマークは依然として困難である。
本稿では,SRBenchの更新版を紹介する。
本ベンチマークでは,評価手法の数をほぼ倍にし,評価指標を精査し,結果の可視化を改良して評価結果の理解を図っている。
さらに、モデルの複雑さ、精度、エネルギー消費のトレードオフを分析する。
以上の結果から,全てのデータセットに1つのアルゴリズムが支配的でないことが示唆された。
我々は,超パラメータチューニング,実行制約,計算資源割り当ての標準化により,シンボルレグレッションにおける最先端の状態を反映した生きたベンチマークとして,SRBenchの維持・進化におけるSRコミュニティからの行動要求を提案する。
また、ベンチマークの関連性を維持するための非推奨基準を提案し、適応型ハイパーパラメータチューニングやエネルギー効率のよい実装など、SRアルゴリズムを改善するためのベストプラクティスについて議論する。
関連論文リスト
- Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - ParFam -- (Neural Guided) Symbolic Regression Based on Continuous Global Optimization [14.146976111782466]
我々は、離散的記号回帰問題を連続的な問題に変換するために、新しいアプローチであるParFamを提案する。
グローバルな手法と組み合わせることで、SRの問題に対処する非常に効果的な手法がもたらされる。
また、ParFamをガイドするために、事前訓練されたトランスフォーマーネットワークDL-ParFamを組み込んだ拡張も提案する。
論文 参考訳(メタデータ) (2023-10-09T09:01:25Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - GSR: A Generalized Symbolic Regression Approach [13.606672419862047]
本論文では, 一般化記号回帰について述べる。
GSR法は、よく知られたシンボリック回帰ベンチマーク問題セットにおいて、最先端のいくつかの手法よりも優れていることを示す。
既存のベンチマークと比較して、より困難な新しいSRベンチマークセットであるSymSetを導入することで、GSRの強みを強調します。
論文 参考訳(メタデータ) (2022-05-31T07:20:17Z) - Open-Set Recognition: A Good Closed-Set Classifier is All You Need [146.6814176602689]
分類器が「ゼロ・オブ・ア・ア・ア・ベ」決定を行う能力は、閉集合クラスにおける精度と高い相関関係があることが示される。
この相関を利用して、閉セット精度を向上させることにより、クロスエントロピーOSR'ベースライン'の性能を向上させる。
また、セマンティックノベルティを検出するタスクをより尊重する新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-10-12T17:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。