論文の概要: LEMMA: Bootstrapping High-Level Mathematical Reasoning with Learned
Symbolic Abstractions
- arxiv url: http://arxiv.org/abs/2211.08671v1
- Date: Wed, 16 Nov 2022 04:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 15:03:10.726468
- Title: LEMMA: Bootstrapping High-Level Mathematical Reasoning with Learned
Symbolic Abstractions
- Title(参考訳): LEMMA: 記号的抽象を学習した高次数学的推論
- Authors: Zhening Li, Gabriel Poesia, Omar Costilla-Reyes, Noah Goodman, Armando
Solar-Lezama
- Abstract要約: 学習数学抽象化(Learning Mathematical Abstractions,LEMMA)は、数学領域における強化学習エージェントのためのアルゴリズムである。
LEMMAを2つの数学的推論タスク(方程式解法と分数単純化法)で段階的に評価する。
- 参考スコア(独自算出の注目度): 13.69691843677107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans tame the complexity of mathematical reasoning by developing
hierarchies of abstractions. With proper abstractions, solutions to hard
problems can be expressed concisely, thus making them more likely to be found.
In this paper, we propose Learning Mathematical Abstractions (LEMMA): an
algorithm that implements this idea for reinforcement learning agents in
mathematical domains. LEMMA augments Expert Iteration with an abstraction step,
where solutions found so far are revisited and rewritten in terms of new
higher-level actions, which then become available to solve new problems. We
evaluate LEMMA on two mathematical reasoning tasks--equation solving and
fraction simplification--in a step-by-step fashion. In these two domains, LEMMA
improves the ability of an existing agent, both solving more problems and
generalizing more effectively to harder problems than those seen during
training.
- Abstract(参考訳): 人間は抽象の階層を発達させることで数学的推論の複雑さを和らげる。
適切な抽象化によって、難しい問題の解を簡潔に表現できるため、それらを見つける可能性が高まる。
本稿では,この概念を数学的領域における強化学習エージェントとして実装するアルゴリズムであるLearning Mathematical Abstractions (LEMMA)を提案する。
lemmaはエキスパートイテレーションを抽象化ステップで強化し、これまで見てきたソリューションが再検討され、新しい高レベルのアクションによって書き直され、新しい問題を解決するために利用できるようになる。
LEMMAを2つの数学的推論タスク(方程式解法と分数単純化法)で段階的に評価する。
これら2つの領域において、lemmaは既存のエージェントの能力を改善し、より多くの問題を解決し、訓練中に見られるよりも難しい問題に対してより効果的に一般化する。
関連論文リスト
- LeanAgent: Lifelong Learning for Formal Theorem Proving [85.39415834798385]
フォーマルな定理証明のための新しい生涯学習フレームワークであるLeanAgentを紹介する。
LeanAgentは継続的に一般化し、拡張可能な数学的知識を改善します。
以前、23のリーンリポジトリで人間が公式に証明していなかった155の定理の証明に成功した。
論文 参考訳(メタデータ) (2024-10-08T17:11:24Z) - Give me a hint: Can LLMs take a hint to solve math problems? [0.5742190785269342]
本稿では,先進的な数学的問題に対する言語モデルの性能向上のための"ヒント"を提案する。
また、敵のヒントに対する堅牢性をテストし、それらに対する感受性を示す。
論文 参考訳(メタデータ) (2024-10-08T11:09:31Z) - Exploring the Compositional Deficiency of Large Language Models in Mathematical Reasoning [30.40415945003794]
数学的推論における大規模言語モデル(LLM)の構成性について検討する。
論理的欠陥の問題は実世界では非常に稀であるため、これらはLLMの「見えない」ケースを表している。
実験の結果, LLM には必要知識の双方の構成要素があるが, これらの新規事例を扱うために, テキストbfspontanely に組み合わせることはできないことがわかった。
論文 参考訳(メタデータ) (2024-05-05T16:35:30Z) - GSM-Plus: A Comprehensive Benchmark for Evaluating the Robustness of LLMs as Mathematical Problem Solvers [68.77382332826167]
大規模言語モデル (LLM) は、様々な数学的推論ベンチマークで顕著な性能を達成している。
1つの必須かつ頻繁な証拠は、数学の質問がわずかに変更されたとき、LLMは誤って振る舞うことができることである。
このことは, LLMの数学推論能力の頑健性を評価するために, 幅広い質問のバリエーションを試すことによるものである。
論文 参考訳(メタデータ) (2024-02-29T15:26:14Z) - AbsPyramid: Benchmarking the Abstraction Ability of Language Models with a Unified Entailment Graph [62.685920585838616]
抽象能力は人間の知性において必須であり、言語モデルでは未探索のままである。
本稿では、抽象知識の221Kテキスト記述を統一したエンテーメントグラフであるAbsPyramidを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:11:23Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Peano: Learning Formal Mathematical Reasoning [35.086032962873226]
一般的な数学的推論は計算不可能であるが、人間は新しい問題を常に解決している。
両パズルの中心は、数学の基礎となる手続き的抽象の構造であると仮定する。
カーン・アカデミー・プラットフォーム上の始点代数の5つの部分に関するケーススタディにおいて、このアイデアを探求する。
論文 参考訳(メタデータ) (2022-11-29T01:42:26Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - A Theory of Abstraction in Reinforcement Learning [18.976500531441346]
この論文では、強化学習における抽象論について述べる。
最初に、抽象化のプロセスを実行する関数に対して、3つのdesiderataを提供します。
次に、エージェントがこれらのデシダータに従って抽象化を学習する方法を明確にする、新しいアルゴリズムと分析のスイートを提示します。
論文 参考訳(メタデータ) (2022-03-01T12:46:28Z) - Contrastive Reinforcement Learning of Symbolic Reasoning Domains [0.0]
シンボリックな問題を解決するための学習は、機械学習アルゴリズムでは難しい。
既存のモデルは、人間のソリューションから学ぶか、手作業による機能を使うかのいずれかで、新しいドメインに適用するのにコストがかかる。
本稿では,記号領域を,状態や動作が構造化されていないテキストとして与えられる単純な環境とみなし,二項報酬は問題が解決されるかどうかを示す。
論文 参考訳(メタデータ) (2021-06-16T21:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。