論文の概要: Learning to Unscramble: Simplifying Symbolic Expressions via Self-Supervised Oracle Trajectories
- arxiv url: http://arxiv.org/abs/2603.11164v1
- Date: Wed, 11 Mar 2026 18:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.554024
- Title: Learning to Unscramble: Simplifying Symbolic Expressions via Self-Supervised Oracle Trajectories
- Title(参考訳): アンスクランブルへの学習 - 自己監督型Oracleトラジェクトリによるシンボリック表現の簡略化
- Authors: David Shih,
- Abstract要約: 数学的表現の記号的単純化のための自己教師型機械学習手法を提案する。
次に、このデータに基づいて変圧器ベースのポリシーネットワークをトレーニングし、入力式が与えられたオラクルアクションを予測する。
本稿では,高エネルギー物理学における2つの問題として,双対還元とスピン-ヘリシティ散乱振幅の簡易化について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new self-supervised machine learning approach for symbolic simplification of complex mathematical expressions. Training data is generated by scrambling simple expressions and recording the inverse operations, creating oracle trajectories that provide both goal states and explicit paths to reach them. A permutation-equivariant, transformer-based policy network is then trained on this data step-wise to predict the oracle action given the input expression. We demonstrate this approach on two problems in high-energy physics: dilogarithm reduction and spinor-helicity scattering amplitude simplification. In both cases, our trained policy network achieves near perfect solve rates across a wide range of difficulty levels, substantially outperforming prior approaches based on reinforcement learning and end-to-end regression. When combined with contrastive grouping and beam search, our model achieves a 100\% full simplification rate on a representative selection of 5-point gluon tree-level amplitudes in Yang-Mills theory, including expressions with over 200 initial terms.
- Abstract(参考訳): 複雑な数学的表現の記号的単純化のための,新しい自己教師型機械学習手法を提案する。
トレーニングデータは単純な表現をスクランブルして逆操作を記録し、目標状態と到達する明確な経路の両方を提供するオラクル軌道を作成することで生成される。
置換等価なトランスフォーマーベースのポリシーネットワークは、入力式が与えられたオラクルアクションを予測するために、このデータに基づいて段階的に訓練される。
本稿では,高エネルギー物理学における2つの問題として,双対還元とスピン-ヘリシティ散乱振幅の簡易化について述べる。
どちらの場合も、トレーニングされたポリシネットワークは、広範囲の難易度でほぼ完全な解決率を実現し、強化学習とエンドツーエンド回帰に基づく従来のアプローチよりも大幅に優れています。
コントラストグルーピングとビームサーチを組み合わせた場合,約200項以上の表現を含むヤン・ミルズ理論において,5点グルーオン木レベル振幅の代表的な選択に対して,100 %の完全単純化率を達成する。
関連論文リスト
- Outcome-Based RL Provably Leads Transformers to Reason, but Only With the Right Data [4.344634631420729]
強化学習を用いて学習した単一層トランスフォーマーのポリシー勾配ダイナミクスを解析する。
最終回答の正確性のみを訓練しているにもかかわらず、ポリシー勾配はTransformerを構造化された解釈可能なアルゴリズムに収束させる。
論文 参考訳(メタデータ) (2026-01-21T16:36:19Z) - Improving Deepfake Detection with Reinforcement Learning-Based Adaptive Data Augmentation [60.04281435591454]
CRDA(Curriculum Reinforcement-Learning Data Augmentation)は、マルチドメインの偽造機能を段階的にマスターするための検出器を導く新しいフレームワークである。
私たちのアプローチの中心は、強化学習と因果推論を統合することです。
提案手法は検出器の一般化性を大幅に向上し,複数のクロスドメインデータセット間でSOTA法より優れている。
論文 参考訳(メタデータ) (2025-11-10T12:45:52Z) - Maximum Total Correlation Reinforcement Learning [23.209609715886454]
誘導軌道内の全相関を最大化する強化学習問題を修正した。
シミュレーションロボット環境において,本手法は周期的かつ圧縮的な軌道を誘導するポリシーを自然に生成する。
論文 参考訳(メタデータ) (2025-05-22T14:48:00Z) - Learning the Simplicity of Scattering Amplitudes [0.0]
本研究は,スピノルヘリシティ変数で表される散乱振幅を単純化するタスクへの機械学習の適用について検討する。
エンコーダ・デコーダ変換器アーキテクチャは、少数の項からなる式に対する印象的な単純化機能を実現する。
長文表現は、コントラスト学習を用いて訓練された追加の埋め込みネットワークで実装され、より単純化しやすい部分表現を分離する。
論文 参考訳(メタデータ) (2024-08-08T18:36:43Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。