論文の概要: AutoMathKG: The automated mathematical knowledge graph based on LLM and vector database
- arxiv url: http://arxiv.org/abs/2505.13406v1
- Date: Mon, 19 May 2025 17:41:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.782043
- Title: AutoMathKG: The automated mathematical knowledge graph based on LLM and vector database
- Title(参考訳): AutoMathKG: LLMとベクトルデータベースに基づく自動数学的知識グラフ
- Authors: Rong Bian, Yu Geng, Zijian Yang, Bing Cheng,
- Abstract要約: 数学知識グラフ(KG)は、数学の分野における知識を構造化された方法で提示する。
本稿では,自動更新が可能な高品質・広包・多次元数学KGであるAutoMathKGを提案する。
- 参考スコア(独自算出の注目度): 1.799933345199395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A mathematical knowledge graph (KG) presents knowledge within the field of mathematics in a structured manner. Constructing a math KG using natural language is an essential but challenging task. There are two major limitations of existing works: first, they are constrained by corpus completeness, often discarding or manually supplementing incomplete knowledge; second, they typically fail to fully automate the integration of diverse knowledge sources. This paper proposes AutoMathKG, a high-quality, wide-coverage, and multi-dimensional math KG capable of automatic updates. AutoMathKG regards mathematics as a vast directed graph composed of Definition, Theorem, and Problem entities, with their reference relationships as edges. It integrates knowledge from ProofWiki, textbooks, arXiv papers, and TheoremQA, enhancing entities and relationships with large language models (LLMs) via in-context learning for data augmentation. To search for similar entities, MathVD, a vector database, is built through two designed embedding strategies using SBERT. To automatically update, two mechanisms are proposed. For knowledge completion mechanism, Math LLM is developed to interact with AutoMathKG, providing missing proofs or solutions. For knowledge fusion mechanism, MathVD is used to retrieve similar entities, and LLM is used to determine whether to merge with a candidate or add as a new entity. A wide range of experiments demonstrate the advanced performance and broad applicability of the AutoMathKG system, including superior reachability query results in MathVD compared to five baselines and robust mathematical reasoning capability in Math LLM.
- Abstract(参考訳): 数学知識グラフ(KG)は、数学の分野における知識を構造化された方法で提示する。
自然言語を使って数学KGを構築することは必須だが難しい課題である。
既存の作業には2つの大きな制限がある: ひとつは、コーパスの完全性に制約され、しばしば不完全な知識を捨てたり、手動で補うことである。
本稿では,自動更新が可能な高品質・広包・多次元数学KGであるAutoMathKGを提案する。
AutoMathKGは、数学を定義、定理、問題実体からなる広大な有向グラフとみなし、それらの参照関係をエッジとみなしている。
ProofWiki、教科書、arXiv論文、TheoremQAからの知識を統合し、データ拡張のためのコンテキスト内学習を通じて、大きな言語モデル(LLM)とのエンティティと関係を強化する。
類似したエンティティを検索するために、ベクトルデータベースであるMathVDは、SBERTを使った2つの設計された埋め込み戦略によって構築される。
自動更新には2つのメカニズムが提案されている。
知識完成機構のために、Math LLMはAutoMathKGと対話するために開発され、欠落した証明や解決策を提供する。
知識融合機構において、MathVDは類似のエンティティを検索するために使用され、LSMは候補とマージするか、新しいエンティティとして追加するかを決定するために使用される。
幅広い実験により、AutoMathKGシステムの高度な性能と幅広い適用性を示し、MathLLMの5つのベースラインとロバストな数学的推論能力と比較して、MathVDの到達性の高いクエリ結果を含む。
関連論文リスト
- MegaMath: Pushing the Limits of Open Math Corpora [44.148011362359036]
MegaMathは、多種多様な数学に焦点を当てたソースからキュレートされたオープンデータセットである。
MegaMathは、既存のオープン数学事前トレーニングデータセットの中で、最大で最高品質の371Bトークンを提供する。
論文 参考訳(メタデータ) (2025-04-03T17:52:07Z) - Data for Mathematical Copilots: Better Ways of Presenting Proofs for Machine Learning [85.635988711588]
我々は,大規模言語モデルの能力向上には,数学的データセットの設計におけるパラダイムシフトが必要であると論じる。
1949年にG. P'olyaが導入した「動機付き証明」の概念は、より良い証明学習信号を提供するデータセットの青写真として機能する。
数学データセットに特化して設計されたアンケートでは、クリエーターにデータセットを含めるよう促します。
論文 参考訳(メタデータ) (2024-12-19T18:55:17Z) - LeanAgent: Lifelong Learning for Formal Theorem Proving [85.39415834798385]
フォーマルな定理証明のための新しい生涯学習フレームワークであるLeanAgentを紹介する。
LeanAgentは継続的に一般化し、拡張可能な数学的知識を改善します。
これは23のリーンリポジトリにわたる155の定理の正式な証明を生成する。
論文 参考訳(メタデータ) (2024-10-08T17:11:24Z) - MathBench: Evaluating the Theory and Application Proficiency of LLMs with a Hierarchical Mathematics Benchmark [82.64129627675123]
MathBenchは、大規模言語モデルの数学的能力を厳格に評価する新しいベンチマークである。
MathBenchは幅広い数学の分野にまたがっており、理論的な理解と実践的な問題解決のスキルの両方を詳細に評価している。
論文 参考訳(メタデータ) (2024-05-20T17:52:29Z) - MathScale: Scaling Instruction Tuning for Mathematical Reasoning [70.89605383298331]
大規模言語モデル(LLM)は問題解決において顕著な能力を示した。
しかし、数学的な問題を解く能力は依然として不十分である。
高品質な数学的推論データを作成するためのシンプルでスケーラブルな方法であるMathScaleを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:42:59Z) - MATHSENSEI: A Tool-Augmented Large Language Model for Mathematical Reasoning [2.9104279358536647]
数学的推論のためのツール強化された大規模言語モデルであるMathSenseiを提案する。
ツールの補完的な利点として、知識検索(Bing Web Search)、プログラムジェネレータ+エグゼキュータ(Python)、記号方程式ソルバ(Wolfram-Alpha API)について検討する。
論文 参考訳(メタデータ) (2024-02-27T05:50:35Z) - math-PVS: A Large Language Model Framework to Map Scientific
Publications to PVS Theories [10.416375584563728]
本研究では,大規模言語モデル(LLM)の高度な数学的概念の定式化への適用性について検討する。
我々は、研究論文から数学的定理を抽出し、形式化する、Emphmath-PVSと呼ばれる自動過程を構想する。
論文 参考訳(メタデータ) (2023-10-25T23:54:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。