論文の概要: Distilling Wikipedia mathematical knowledge into neural network models
- arxiv url: http://arxiv.org/abs/2104.05930v1
- Date: Tue, 13 Apr 2021 04:16:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:42:39.075682
- Title: Distilling Wikipedia mathematical knowledge into neural network models
- Title(参考訳): ウィキペディアの数学的知識をニューラルネットワークモデルに拡張する
- Authors: Joanne T. Kim, Mikel Landajuela Larma, Brenden K. Petersen
- Abstract要約: Wikipediaに埋め込まれた数学的表現を、下流の機械学習タスクで使用されるシンボリックエンコーディングに蒸留するパイプラインを紹介します。
この「コーパス」の式で訓練された$textitmathematical$ $textitlanguage$ $textitmodel$は、シンボリック回帰のタスクに対するニューラルガイド検索のパフォーマンスを改善するために、事前に使用することができます。
- 参考スコア(独自算出の注目度): 4.874780144224057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning applications to symbolic mathematics are becoming
increasingly popular, yet there lacks a centralized source of real-world
symbolic expressions to be used as training data. In contrast, the field of
natural language processing leverages resources like Wikipedia that provide
enormous amounts of real-world textual data. Adopting the philosophy of
"mathematics as language," we bridge this gap by introducing a pipeline for
distilling mathematical expressions embedded in Wikipedia into symbolic
encodings to be used in downstream machine learning tasks. We demonstrate that
a $\textit{mathematical}$ $\textit{language}$ $\textit{model}$ trained on this
"corpus" of expressions can be used as a prior to improve the performance of
neural-guided search for the task of symbolic regression.
- Abstract(参考訳): シンボリック数学への機械学習応用はますます普及しているが、トレーニングデータとして使用される実世界のシンボリック表現の集中的なソースが欠けている。
対照的に、自然言語処理の分野は、膨大な量の現実世界のテキストデータを提供するWikipediaのようなリソースを活用している。
言語としての数学」の哲学を採用することで、ウィキペディアに埋め込まれた数学的表現を、下流機械学習タスクで使用されるシンボリックエンコーディングに変換するパイプラインを導入することで、このギャップを埋める。
この "corpus" でトレーニングされた $\textit{mathematical}$ $$\textit{language}$ $$\textit{model}$ は、シンボリック回帰のタスクに対するニューラルガイド付き検索のパフォーマンスを改善するために、事前の手段として使用できる。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code [38.127313175508746]
本稿では, 継続事前学習のための推論ステップを伴って, 数学的コードを生成する新しい手法を提案する。
私たちのアプローチは、高品質な数学的継続事前学習データセットの構築から始まります。
生成されたコードを推論ステップ毎に適用すると、ペアの自然言語推論ステップとその対応するコードからなるデータが得られる。
論文 参考訳(メタデータ) (2024-10-10T17:58:40Z) - The $μ\mathcal{G}$ Language for Programming Graph Neural Networks [0.542060671850508]
$mumathcalG$は、グラフニューラルネットワーク仕様のためのドメイン固有言語である。
我々は、最も人気のあるグラフニューラルネットワークモデルを定義するために、$mumathcalG$をどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-07-12T17:27:43Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Mathematical Entities: Corpora and Benchmarks [0.8766411351797883]
数学テキストに対する自然言語処理の研究は比較的少ない。
我々は、異なる文脈で数学の言語を研究するのに使用できる注釈付きコーパスを提供する。
論文 参考訳(メタデータ) (2024-06-17T14:11:00Z) - Natural Language Embedded Programs for Hybrid Language Symbolic Reasoning [84.12154024070024]
本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
論文 参考訳(メタデータ) (2023-09-19T17:54:21Z) - Neural Machine Translation for Mathematical Formulae [8.608288231153304]
我々は、あいまいな表現言語とあいまいなコンテンツ言語の間の数学的公式のニューラルネットワーク翻訳の問題に取り組む。
畳み込みシーケンス・ツー・シーケンス・ネットワークはそれぞれ95.1%と90.7%の正確な一致を達成した。
論文 参考訳(メタデータ) (2023-05-25T19:15:06Z) - Tree-Based Representation and Generation of Natural and Mathematical
Language [77.34726150561087]
科学コミュニケーションと教育シナリオにおける数学的言語は重要であるが、比較的研究されている。
数学言語に関する最近の研究は、スタンドアローンな数学的表現や、事前訓練された自然言語モデルにおける数学的推論に焦点をあてている。
テキストと数学を共同で表現・生成するために,既存の言語モデルに対する一連の修正を提案する。
論文 参考訳(メタデータ) (2023-02-15T22:38:34Z) - Math-KG: Construction and Applications of Mathematical Knowledge Graph [2.1828601975620257]
本研究では,パイプライン法と自然言語処理技術によって自動的に構築された数学知識グラフMath-KGを提案する。
提案するMath-KGは,故障解析やセマンティックサーチなど,一連のシーンでコントリビューションを行うことができる。
論文 参考訳(メタデータ) (2022-05-08T03:39:07Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。