論文の概要: Learning Mathematical Properties of Integers
- arxiv url: http://arxiv.org/abs/2109.07230v1
- Date: Wed, 15 Sep 2021 11:54:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:16:48.533917
- Title: Learning Mathematical Properties of Integers
- Title(参考訳): 整数の数学的性質の学習
- Authors: Maria Ryskina, Kevin Knight
- Abstract要約: 数理知識のための整数埋め込みを探索し、数理推論の一連のタスクに適用し、数理シーケンスデータから表現を学習することで、英語のテキストコーパスから学習した数値埋め込みを大幅に改善できることを示す。
- 参考スコア(独自算出の注目度): 22.86999308648373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding words in high-dimensional vector spaces has proven valuable in many
natural language applications. In this work, we investigate whether
similarly-trained embeddings of integers can capture concepts that are useful
for mathematical applications. We probe the integer embeddings for mathematical
knowledge, apply them to a set of numerical reasoning tasks, and show that by
learning the representations from mathematical sequence data, we can
substantially improve over number embeddings learned from English text corpora.
- Abstract(参考訳): 高次元ベクトル空間における単語の埋め込みは、多くの自然言語応用において有益であることが証明されている。
本研究では, 数学的な応用に有用な概念を, 同様に訓練された整数の埋め込みが捉えることができるかどうかを考察する。
数理知識のための整数埋め込みを探索し、数理推論の一連のタスクに適用し、数理シーケンスデータから表現を学習することにより、英語のテキストコーパスから学習した数値埋め込みを大幅に改善できることを示す。
関連論文リスト
- Generative AI for Math: Part I -- MathPile: A Billion-Token-Scale
Pretraining Corpus for Math [52.66190891388847]
約950億のトークンからなる多様で高品質な数学中心コーパスであるtextscMathPileを紹介します。
精巧なデータ収集と処理には、複雑な事前処理が含まれていました。
われわれのtextscMathPileは、言語モデルの数学的推論能力を高めるのに役立つことを願っている。
論文 参考訳(メタデータ) (2023-12-28T16:55:40Z) - Large Language Models for Mathematicians [58.196955111156676]
大規模言語モデル(LLM)は、汎用言語理解、特に高品質なテキストやコンピュータコードを生成する能力に多大な関心を集めている。
本稿では,プロの数学者をどの程度支援できるかについて論じる。
論文 参考訳(メタデータ) (2023-12-07T18:59:29Z) - Math Agents: Computational Infrastructure, Mathematical Embedding, and
Genomics [0.0]
人間-AIチャット以外にも、大規模言語モデル(LLM)はプログラミング、アルゴリズム発見、定理証明に現れている。
本研究は「ムーアの数学法則」の新たなエントリとして数学エージェントと数学的埋め込みを紹介する。
プロジェクトは、情報システム生物学の老朽化問題に対処するために、数学エージェントと数学的埋め込みを使用することを目的としている。
論文 参考訳(メタデータ) (2023-07-04T20:16:32Z) - Tree-Based Representation and Generation of Natural and Mathematical
Language [77.34726150561087]
科学コミュニケーションと教育シナリオにおける数学的言語は重要であるが、比較的研究されている。
数学言語に関する最近の研究は、スタンドアローンな数学的表現や、事前訓練された自然言語モデルにおける数学的推論に焦点をあてている。
テキストと数学を共同で表現・生成するために,既存の言語モデルに対する一連の修正を提案する。
論文 参考訳(メタデータ) (2023-02-15T22:38:34Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - Lila: A Unified Benchmark for Mathematical Reasoning [59.97570380432861]
LILAは、23の多様なタスクと4次元からなる統一的な数学的推論ベンチマークである。
我々は,Pythonプログラムの形式でタスク命令とソリューションを収集することにより,20のデータセットベンチマークを拡張してベンチマークを構築した。
LILAで訓練された汎用数学的推論モデルであるBHASKARAを紹介する。
論文 参考訳(メタデータ) (2022-10-31T17:41:26Z) - NaturalProofs: Mathematical Theorem Proving in Natural Language [132.99913141409968]
数学的ステートメントの多領域コーパスであるNaturalProofsとその証明を開発した。
NaturalProofsは広範なカバレッジ、深いカバレッジ、低リソースの数学的ソースを統一する。
数式参照検索と生成タスクに関する強力なニューラルネットワーク手法をベンチマークする。
論文 参考訳(メタデータ) (2021-03-24T03:14:48Z) - Investigating the Limitations of the Transformers with Simple Arithmetic
Tasks [10.23804850480924]
その結果,表層形状における数値の表現方法がモデルの精度に強い影響を与えていることがわかった。
現代の事前学習型言語モデルは,ごく少数の例から容易に算術を学習できると結論付けている。
論文 参考訳(メタデータ) (2021-02-25T17:22:53Z) - Learning to Match Mathematical Statements with Proofs [37.38969121408295]
このタスクは、研究レベルの数学的テキストの処理を改善するために設計されている。
我々は180k以上の文対からなるタスク用のデータセットをリリースする。
課題をグローバルに検討し,重み付き二部マッチングアルゴリズムを用いることで,課題に対処できることが示唆された。
論文 参考訳(メタデータ) (2021-02-03T15:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。