論文の概要: Iterated Agent for Symbolic Regression
- arxiv url: http://arxiv.org/abs/2510.08317v1
- Date: Thu, 09 Oct 2025 15:02:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.153937
- Title: Iterated Agent for Symbolic Regression
- Title(参考訳): シンボリック回帰のための反復剤
- Authors: Zhuo-Yang Song, Zeyu Cai, Shutao Zhang, Jiashen Wei, Jichen Pan, Shi Qiu, Qing-Hong Cao, Tie-Jiun Hou, Xiaohui Liu, Ming-xing Luo, Hua Xing Zhu,
- Abstract要約: 本稿では,Large Language Models (LLM) を進化的探索のセマンティック演算子として利用するフレームワークであるIdeanSearchFitterを紹介する。
自然言語の合理性によって導かれる候補表現を生成することにより,本手法は,正確なだけでなく,概念的に一貫性があり,解釈可能なモデルへの発見をバイアスする。
- 参考スコア(独自算出の注目度): 5.401750491164173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Symbolic regression (SR), the automated discovery of mathematical expressions from data, is a cornerstone of scientific inquiry. However, it is often hindered by the combinatorial explosion of the search space and a tendency to overfit. Popular methods, rooted in genetic programming, explore this space syntactically, often yielding overly complex, uninterpretable models. This paper introduces IdeaSearchFitter, a framework that employs Large Language Models (LLMs) as semantic operators within an evolutionary search. By generating candidate expressions guided by natural-language rationales, our method biases discovery towards models that are not only accurate but also conceptually coherent and interpretable. We demonstrate IdeaSearchFitter's efficacy across diverse challenges: it achieves competitive, noise-robust performance on the Feynman Symbolic Regression Database (FSReD), outperforming several strong baselines; discovers mechanistically aligned models with good accuracy-complexity trade-offs on real-world data; and derives compact, physically-motivated parametrizations for Parton Distribution Functions in a frontier high-energy physics application. IdeaSearchFitter is a specialized module within our broader iterated agent framework, IdeaSearch, which is publicly available at https://www.ideasearch.cn/.
- Abstract(参考訳): 記号回帰(SR)は、データから数学的表現の自動発見であり、科学的調査の基盤となっている。
しかし、しばしば探索空間の組合せ爆発と過度に適合する傾向によって妨げられる。
遺伝的プログラミングに根ざした一般的な手法は、この空間を構文的に探求し、しばしば複雑で解釈不能なモデルを生み出す。
本稿では,Large Language Models (LLM) を進化的探索のセマンティック演算子として利用するフレームワークであるIdeanSearchFitterを紹介する。
自然言語の合理性によって導かれる候補表現を生成することにより、本手法は、正確であるだけでなく、概念的に一貫性があり、解釈可能なモデルに対する発見をバイアスする。
本稿では,Feynman Symbolic Regression Database (FSReD) 上での競合・ノイズ・ロバストな性能を実現し,いくつかの強力なベースラインを上回り,実世界のデータに高い精度・複雑度トレードオフを持つメカニカル整列モデルを発見し,フロンティア高エネルギー物理アプリケーションにおける粒子分布関数のコンパクトで物理的に動機付けられたパラメトリゼーションを導出する。
IdeaSearchFitterは、我々のより広範な反復エージェントフレームワークであるIdeanSearchの特殊なモジュールで、https://www.ideasearch.cn/.comで公開されている。
関連論文リスト
- Beyond Error-Based Optimization: Experience-Driven Symbolic Regression with Goal-Conditioned Reinforcement Learning [14.473539776112666]
EGRL-SR(Experience-driven Goal- Conditioned Reinforcement Learning for Regression)という新しいフレームワークを提案する。
目標条件付き強化学習問題として記号回帰を定式化し、後続経験リプレイを取り入れた。
我々は、低エラー表現よりも構造パターンに注目するアクション値ネットワークを奨励する、全点満足度二項報酬関数を設計する。
論文 参考訳(メタデータ) (2026-01-21T06:08:37Z) - Optimizing Generative Ranking Relevance via Reinforcement Learning in Xiaohongshu Search [32.56725829132154]
関係モデリングにおいて、明示的推論が解釈可能性と性能の両方を高めることができるかどうかを考察する。
本研究では,Xiaohongshu 検索における関連性モデリングを推論タスクとして定式化する。
本稿では,強化学習(Reinforcement Learning, RL)に基づく学習フレームワークを導入し, GRMの基盤的推論能力を向上させる。
論文 参考訳(メタデータ) (2025-11-30T16:31:16Z) - SHRAG: AFrameworkfor Combining Human-Inspired Search with RAG [0.22940141855172033]
Retrieval-Augmented Generation (RAG) は次世代情報検索の鍵となる技術軸の1つとして認識されている。
本研究では,情報検索とRAGのシームレスな統合を支援する新しいフレームワークであるSHRAGを提案する。
実験の結果,提案手法は論理的検索能力と生成的推論を組み合わせることで,RAGシステムの精度と信頼性を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2025-11-30T08:06:47Z) - WebSeer: Training Deeper Search Agents through Reinforcement Learning with Self-Reflection [51.10348385624784]
本稿では,自己回帰機構によって強化された強化学習によって訓練された,よりインテリジェントな検索エージェントであるWebSeerを紹介する。
提案手法はツール使用チェーンを大幅に拡張し,回答精度を向上する。
論文 参考訳(メタデータ) (2025-10-21T16:52:00Z) - Unifying Tree Search Algorithm and Reward Design for LLM Reasoning: A Survey [92.71325249013535]
線形木探索はLarge Language Model (LLM) 研究の基盤となっている。
本稿では,検索アルゴリズムを3つのコアコンポーネントに分解する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T03:29:18Z) - Discovering physical laws with parallel symbolic enumeration [67.36739393470869]
並列記号列挙法(PSE)を導入し,限られたデータから汎用数学的表現を効率的に抽出する。
実験の結果,PSEは最先端のベースラインアルゴリズムと比較して精度が高く,計算速度も速いことがわかった。
PSEは、記号的、解釈可能なモデルの正確で効率的なデータ駆動による発見の進歩を表している。
論文 参考訳(メタデータ) (2024-07-05T10:41:15Z) - Shape Arithmetic Expressions: Advancing Scientific Discovery Beyond Closed-Form Equations [56.78271181959529]
GAM(Generalized Additive Models)は、変数とターゲットの間の非線形関係をキャプチャできるが、複雑な特徴相互作用をキャプチャすることはできない。
本稿では,GAMのフレキシブルな形状関数と,数学的表現に見られる複雑な特徴相互作用を融合させる形状表現算術(SHARE)を提案する。
また、標準制約を超えた表現の透明性を保証するSHAREを構築するための一連のルールを設計する。
論文 参考訳(メタデータ) (2024-04-15T13:44:01Z) - On Least Square Estimation in Softmax Gating Mixture of Experts [78.3687645289918]
決定論的MoEモデルに基づく最小二乗推定器(LSE)の性能について検討する。
我々は,多種多様な専門家関数の収束挙動を特徴付けるために,強い識別可能性という条件を確立する。
本研究は,専門家の選択に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-02-05T12:31:18Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。