論文の概要: MathGloss: Building mathematical glossaries from text
- arxiv url: http://arxiv.org/abs/2311.12649v1
- Date: Tue, 21 Nov 2023 14:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 00:15:49.086997
- Title: MathGloss: Building mathematical glossaries from text
- Title(参考訳): MathGloss: テキストから数学的用語集を構築する
- Authors: Lucy Horowitz, Valeria de Paiva
- Abstract要約: MathGlossは数学の学部概念のデータベースである。
最新の自然言語処理(NLP)ツールとWeb上で既に利用可能なリソースを使用している。
- 参考スコア(独自算出の注目度): 0.620048328543366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MathGloss is a project to create a knowledge graph (KG) for undergraduate
mathematics from text, automatically, using modern natural language processing
(NLP) tools and resources already available on the web. MathGloss is a linked
database of undergraduate concepts in mathematics. So far, it combines five
resources: (i) Wikidata, a collaboratively edited, multilingual knowledge graph
hosted by the Wikimedia Foundation, (ii) terms covered in mathematics courses
at the University of Chicago, (iii) the syllabus of the French undergraduate
mathematics curriculum which includes hyperlinks to the automated theorem
prover Lean 4, (iv) MuLiMa, a multilingual dictionary of mathematics curated by
mathematicians, and (v) the nLab, a wiki for category theory also curated by
mathematicians. MathGloss's goal is to bring together resources for learning
mathematics and to allow every mathematician to tailor their learning to their
own preferences. Moreover, by organizing different resources for learning
undergraduate mathematics alongside those for learning formal mathematics, we
hope to make it easier for mathematicians and formal tools (theorem provers,
computer algebra systems, etc) experts to "understand" each other and break
down some of the barriers to formal math.
- Abstract(参考訳): MathGlossは、Web上で既に利用可能な最新の自然言語処理(NLP)ツールとリソースを使用して、テキストから学部数学の知識グラフ(KG)を作成するプロジェクトである。
MathGlossは数学における学部概念のリンクデータベースである。
これまでのところ5つの資源が組み合わさっています
(i)ウィキメディア財団が主催する共同編集多言語知識グラフウィキデータ
(ii)シカゴ大学数学科の用語
(iii)自動定理証明者リーン4へのハイパーリンクを含むフランスの学部数学カリキュラムのシラバス
(四)無LiMa、数学者が編纂した多言語数学辞書、及び
(v) 圏論のwikiであるnLabも数学者によってキュレーションされている。
MathGlossの目標は、数学を学ぶためのリソースをまとめ、すべての数学者が自分の好みに合わせて学習をカスタマイズできるようにすることである。
さらに、形式数学を学ぶために、学部数学を学ぶための異なるリソースを組織することで、数学者や形式的ツール(理論プロバー、コンピュータ代数システムなど)の専門家が互いに「理解」し、形式的数学の障壁を壊すことを容易にしたいと考えています。
関連論文リスト
- FineMath: A Fine-Grained Mathematical Evaluation Benchmark for Chinese
Large Language Models [47.560637703675816]
FineMathは、中国語大言語モデル(LLM)を評価するための詳細な数学的評価ベンチマークデータセットである。
FineMathは、小学校数学で教えられる主要な数学的概念をカバーし、数学用語の問題の17のカテゴリに分けられる。
数学の単語問題のうち17のカテゴリは、これらの問題を解決するために必要な推論ステップの数に応じて、難易度を手動でアノテートする。
論文 参考訳(メタデータ) (2024-03-12T15:32:39Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - MathScale: Scaling Instruction Tuning for Mathematical Reasoning [70.89605383298331]
大規模言語モデル(LLM)は問題解決において顕著な能力を示した。
しかし、数学的な問題を解く能力は依然として不十分である。
高品質な数学的推論データを作成するためのシンプルでスケーラブルな方法であるMathScaleを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:42:59Z) - Math Agents: Computational Infrastructure, Mathematical Embedding, and
Genomics [0.0]
人間-AIチャット以外にも、大規模言語モデル(LLM)はプログラミング、アルゴリズム発見、定理証明に現れている。
本研究は「ムーアの数学法則」の新たなエントリとして数学エージェントと数学的埋め込みを紹介する。
プロジェクトは、情報システム生物学の老朽化問題に対処するために、数学エージェントと数学的埋め込みを使用することを目的としている。
論文 参考訳(メタデータ) (2023-07-04T20:16:32Z) - OntoMath${}^{\mathbf{PRO}}$ 2.0 Ontology: Updates of the Formal Model [68.8204255655161]
主な関心は、Open Linked Dataクラウドにおける数学的ステートメントを表現するための形式モデルの開発である。
提案モデルは、自然言語の数学的テキストから数学的事実を抽出し、これらの事実をLinked Open Dataとして表現するアプリケーションを対象としている。
このモデルは OntoMath$mathrmPRO$ ontology of professional mathematics の新バージョンの開発に使用される。
論文 参考訳(メタデータ) (2023-03-17T20:29:17Z) - Mathematical Capabilities of ChatGPT [35.71603158908465]
GHOSTSとminiGHOSTSの2つの新しいデータセットをリリースしています。
これらは、数学の研究者によって計算された最初の自然言語データセットである。
モデルを、詳細なパフォーマンス指標でベンチマークします。
論文 参考訳(メタデータ) (2023-01-31T18:59:03Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - MathBERT: A Pre-trained Language Model for General NLP Tasks in
Mathematics Education [13.488307306450627]
MathBERTは、BASE BERTモデルを大規模な数学的コーパスで事前訓練したモデルである。
MathBERTでトレーニングするために、数学固有の語彙'mathVocab'を構築します。
MathBERTは現在、商用の教育リソースプロバイダであるStride, Incと、無料のオンライン教育プラットフォームであるASSISTments.orgで採用されている。
論文 参考訳(メタデータ) (2021-06-02T02:43:18Z) - Noisy Deductive Reasoning: How Humans Construct Math, and How Math
Constructs Universes [0.5874142059884521]
本稿では,数学が基本的な過程である数学的推論の計算モデルを提案する。
この枠組みが数学的実践のいくつかの側面について説得力のある説明を与えることを示す。
論文 参考訳(メタデータ) (2020-10-28T19:43:14Z) - Art Speaks Maths, Maths Speaks Art [53.473846742702854]
文化遺産における応用数学(MACH)は,芸術と人文科学の利益のために数学研究を活用することを目的としている。
究極のゴールは、アーティスト、美術保守家、考古学者のためのユーザーフレンドリーなソフトウェアツールキットを作ることです。
論文 参考訳(メタデータ) (2020-07-17T10:24:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。