論文の概要: A semantic-based deep learning approach for mathematical expression retrieval
- arxiv url: http://arxiv.org/abs/2511.01364v1
- Date: Mon, 03 Nov 2025 09:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.19335
- Title: A semantic-based deep learning approach for mathematical expression retrieval
- Title(参考訳): 数学的表現検索のための意味に基づく深層学習手法
- Authors: Pavan Kumar Perepu,
- Abstract要約: 深層学習を用いた数学的表現の検索に着目した。
提案手法では, ディープリカレントニューラルネットワーク(DRNN)を用いてMEから意味的特徴を抽出する。
当社のアプローチは,829 ME のデータベース上で実証されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mathematical expressions (MEs) have complex two-dimensional structures in which symbols can be present at any nested depth like superscripts, subscripts, above, below etc. As MEs are represented using LaTeX format, several text retrieval methods based on string matching, vector space models etc., have also been applied for ME retrieval problem in the literature. As these methods are based on syntactic similarity, recently deep learning approaches based on embedding have been used for semantic similarity. In our present work, we have focused on the retrieval of mathematical expressions using deep learning approaches. In our approach, semantic features are extracted from the MEs using a deep recurrent neural network (DRNN) and these features have been used for matching and retrieval. We have trained the network for a classification task which determines the complexity of an ME. ME complexity has been quantified in terms of its nested depth. Based on the nested depth, we have considered three complexity classes of MEs: Simple, Medium and Complex. After training the network, outputs just before the the final fully connected layer are extracted for all the MEs. These outputs form the semantic features of MEs and are stored in a database. For a given ME query, its semantic features are computed using the trained DRNN and matched against the semantic feature database. Matching is performed based on the standard euclidean distance and top 'k' nearest matches are retrieved, where 'k' is a user-defined parameter. Our approach has been illustrated on a database of 829 MEs.
- Abstract(参考訳): 数学的な表現(ME)は複雑な2次元構造を持ち、記号はスーパースクリプト、サブスクリプトなどのネストした深さに存在することができる。
MEはLaTeXフォーマットで表現されるため、文字列マッチングやベクトル空間モデルなどに基づくテキスト検索手法も、文学におけるME検索問題に適用されている。
これらの手法は構文的類似性に基づいており、近年は埋め込みに基づくディープラーニングアプローチが意味論的類似性に使われている。
本研究は,ディープラーニングを用いた数学的表現の検索に焦点をあてたものである。
提案手法では, ディープリカレントニューラルネットワーク(DRNN)を用いてMEから意味的特徴を抽出し, これらの特徴をマッチングと検索に利用している。
我々は、MEの複雑さを決定する分類タスクのためにネットワークを訓練した。
MEの複雑さは、ネストした深さの観点から定量化されている。
ネストした深さに基づいて、私たちはMEの3つの複雑性クラス、Simple, Medium, Complexを検討した。
ネットワークをトレーニングした後、最後の完全に接続された層が全てのMEに対して抽出される直前に出力される。
これらの出力はMEのセマンティックな特徴を形成し、データベースに格納される。
与えられたMEクエリに対して、そのセマンティック機能は訓練されたDRNNを使用して計算され、セマンティック機能データベースにマッチする。
標準ユークリッド距離に基づいてマッチングが行われ、最上位の 'k' が検索され、そこで 'k' がユーザ定義パラメータとなる。
当社のアプローチは,829 MEsのデータベース上で実証されています。
関連論文リスト
- A Top-down Graph-based Tool for Modeling Classical Semantic Maps: A Crosslinguistic Case Study of Supplementary Adverbs [50.982315553104975]
セマンティックマップモデル(SMM)は、言語横断的なインスタンスや形式からネットワークのような概念空間を構築する。
ほとんどのSMMは、ボトムアップ手順を使用して、人間の専門家によって手動で構築される。
本稿では,概念空間とSMMをトップダウンで自動生成するグラフベースの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-02T12:06:41Z) - A General and Flexible Multi-concept Parsing Framework for Multilingual Semantic Matching [60.51839859852572]
我々は,テキストを多言語セマンティックマッチングのためのマルチコンセプトに分解し,NERモデルに依存するモデルからモデルを解放することを提案する。
英語データセットのQQPとMRPC、中国語データセットのMedical-SMについて包括的な実験を行った。
論文 参考訳(メタデータ) (2024-03-05T13:55:16Z) - ReFusion: Improving Natural Language Understanding with Computation-Efficient Retrieval Representation Fusion [22.164620956284466]
言語モデルに外部データベースからの知識を取り入れた検索ベース拡張(RA)は,様々な知識集約(KI)タスクに大きく成功している。
既存の作業は、モデル性能を改善するために、検索と入力を結合することに焦点を当てている。
本稿では,二段階最適化を用いた計算効率の高い検索表現Fusionである textbfReFusion の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2024-01-04T07:39:26Z) - Enhancing Neural Machine Translation with Semantic Units [19.277108324366257]
文中の意味単位の積分的意味をモデル化する手法を提案する。
そして、それらを活用して、文を理解するための新しい視点を提供します。
実験結果から,本手法は強いベースラインを効果的にモデル化し,性能を向上することが示された。
論文 参考訳(メタデータ) (2023-10-17T15:55:31Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - MASTER: Multi-task Pre-trained Bottlenecked Masked Autoencoders are
Better Dense Retrievers [140.0479479231558]
本研究では,様々な事前学習タスクをマルチタスク事前学習モデル(MASTER)に統合することを目的とする。
MASTERは共有エンコーダのマルチデコーダアーキテクチャを利用して、タスク全体にわたる豊富なセマンティック情報を高密度ベクトルに圧縮する表現ボトルネックを構築することができる。
論文 参考訳(メタデータ) (2022-12-15T13:57:07Z) - Multimodal Representation for Neural Code Search [18.371048875103497]
本稿では,AST の簡易な形式でツリーシリアライズ手法を導入し,コードデータのマルチモーダル表現を構築する。
この結果から,木をシリアライズした表現とマルチモーダル学習モデルの両方がニューラルコード検索の性能を向上させることがわかった。
論文 参考訳(メタデータ) (2021-07-02T12:08:19Z) - Automated Discovery of Mathematical Definitions in Text with Deep Neural
Networks [6.172021438837204]
本稿では,数学的テキストにおける一文定義の自動検出に着目する。
畳み込みニューラルネットワーク(CNN)やLong Short-Term Memory Network(LSTM)などのディープラーニング手法を適用した。
また、数学的テキストから定義を抽出するための新しいデータセットも提示する。
論文 参考訳(メタデータ) (2020-11-09T15:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。