論文の概要: Empowering Bengali Education with AI: Solving Bengali Math Word Problems through Transformer Models
- arxiv url: http://arxiv.org/abs/2501.02599v1
- Date: Sun, 05 Jan 2025 16:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:10:17.338488
- Title: Empowering Bengali Education with AI: Solving Bengali Math Word Problems through Transformer Models
- Title(参考訳): AIによるベンガル語教育の強化 - 変圧器モデルによるベンガル語の問題解決
- Authors: Jalisha Jashim Era, Bidyarthi Paul, Tahmid Sattar Aothoi, Mirazur Rahman Zim, Faisal Muhammad Shah,
- Abstract要約: 本稿では, 変圧器モデルを用いたベンガルMWPの解法を提案する。
この取り組みをサポートするために、ベンガルの数学問題10,000を含む"PatiGonit"データセットが導入された。
評価の結果、mT5モデルは97.30%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Mathematical word problems (MWPs) involve the task of converting textual descriptions into mathematical equations. This poses a significant challenge in natural language processing, particularly for low-resource languages such as Bengali. This paper addresses this challenge by developing an innovative approach to solving Bengali MWPs using transformer-based models, including Basic Transformer, mT5, BanglaT5, and mBART50. To support this effort, the "PatiGonit" dataset was introduced, containing 10,000 Bengali math problems, and these models were fine-tuned to translate the word problems into equations accurately. The evaluation revealed that the mT5 model achieved the highest accuracy of 97.30%, demonstrating the effectiveness of transformer models in this domain. This research marks a significant step forward in Bengali natural language processing, offering valuable methodologies and resources for educational AI tools. By improving math education, it also supports the development of advanced problem-solving skills for Bengali-speaking students.
- Abstract(参考訳): 数学的単語問題(MWPs)は、テキスト記述を数学的方程式に変換するタスクである。
これは、特にBengaliのような低リソース言語では、自然言語処理において大きな課題となる。
本稿では,ベーシックトランスフォーマー,mT5,BanglaT5,mBART50などのトランスフォーマーモデルを用いて,ベンガルMWPを解く革新的な手法を開発することで,この問題に対処する。
この取り組みを支援するために、1万のベンガル数学問題を含む"PatiGonit"データセットが導入された。
評価の結果、mT5モデルは97.30%の精度を達成し、この領域におけるトランスフォーマーモデルの有効性を示した。
この研究は、ベンガルの自然言語処理において重要な進歩であり、教育AIツールに貴重な方法論とリソースを提供する。
数学教育の改善により、ベンガル語話者の高度な問題解決スキルの開発も支援している。
関連論文リスト
- Qwen2.5-32B: Leveraging Self-Consistent Tool-Integrated Reasoning for Bengali Mathematical Olympiad Problem Solving [0.0]
本稿では, DL Sprint 3.0 BUET CSE Fest 2024 コンペティションのために開発されたベンガルにおける数学的問題を解決する革新的なアプローチを提案する。
提案手法では,先進的なディープラーニングモデル,特にQwen 2.5シリーズを用いて,迅速なエンジニアリングによる改良を行った。
論文 参考訳(メタデータ) (2024-11-08T19:44:12Z) - Lean Workbook: A large-scale Lean problem set formalized from natural language math problems [50.22847430754973]
大規模な言語モデルは、リーンのような形式言語を使って証明する数学の定理が得意ではありません。
この領域で重要な課題は、これらの形式言語で利用可能なトレーニングデータの不足である。
本稿では,自然言語の数学的問題をリーン4文に変換するために,合成データを反復的に生成・フィルタリングするパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-06T08:25:43Z) - How Ready Are Generative Pre-trained Large Language Models for Explaining Bengali Grammatical Errors? [0.4857223913212445]
高度な生成人工知能(AI)を利用した文法的誤り訂正(GEC)ツール。
しかし、それらはしばしば、本質的な自然言語の説明の提供に不足する。
このような言語では、文法的誤り説明(GEE)システムは正しい文だけでなく、誤りの説明も提供すべきである。
論文 参考訳(メタデータ) (2024-05-27T15:56:45Z) - Refining Joint Text and Source Code Embeddings for Retrieval Task with Parameter-Efficient Fine-Tuning [0.0]
そこで本研究では,それを利用した微調整フレームワークを提案する。
PEFT(Efficient Fine-Tuning)技術。
提案する微調整フレームワークは,最大で0.4%のパラメータをチューニングすることで,コードテキスト検索性能を向上させる可能性を実証した。
論文 参考訳(メタデータ) (2024-05-07T08:50:25Z) - Data Augmentation with In-Context Learning and Comparative Evaluation in Math Word Problem Solving [0.0]
本研究の目的は,MWPソルバにより多様なトレーニングセットを提供することであり,最終的には様々な数学問題を解く能力を向上させることである。
本稿では,同義語置換法,ルールベース:質問置換法,ルールベース:質問方法論を逆転させるような問題テキストや方程式を変更することで,データ拡張のためのいくつかの手法を提案する。
本研究は,Llama-7b言語モデルを用いて,新しい文脈内学習拡張手法を導入することで拡張する。
論文 参考訳(メタデータ) (2024-04-05T07:57:03Z) - BanglaNLP at BLP-2023 Task 1: Benchmarking different Transformer Models
for Violence Inciting Text Detection in Bengali [0.46040036610482665]
本稿では,バングラでテキスト検出を誘発する暴力行為における,この共有課題を解決するために開発したシステムについて述べる。
私たちは、従来のアプローチと最近のアプローチの両方を説明して、モデルを学習させました。
提案システムでは,テキストに脅威があるかどうかを分類する。
論文 参考訳(メタデータ) (2023-10-16T19:35:04Z) - Textbooks Are All You Need II: phi-1.5 technical report [55.6940110946465]
我々は、新しい13億のパラメータモデル textbfphi-1.5を作成し、5倍のモデルに匹敵する自然言語タスクのパフォーマンスを実現した。
textbfphi-1.5はより大きな言語モデルの特徴の多くを示している。
我々はこれらの緊急トピックに関するさらなる研究を促進するために textbfphi-1.5 をオープンソース化した。
論文 参考訳(メタデータ) (2023-09-11T14:01:45Z) - PanGu-{\Sigma}: Towards Trillion Parameter Language Model with Sparse
Heterogeneous Computing [64.53242758625922]
PanGu-SigmaはAscend 910 AIプロセッサとMindSporeフレームワークのクラスタでトレーニングされている。
さまざまな中国のNLPダウンストリームタスクのゼロショット学習において、最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2023-03-20T03:39:27Z) - Solving Quantitative Reasoning Problems with Language Models [53.53969870599973]
我々は、一般的な自然言語データに基づいて事前訓練された大規模言語モデルであるMinervaを紹介し、さらに技術的な内容について訓練する。
このモデルは、外部ツールを使わずに、技術的ベンチマークで最先端のパフォーマンスを達成する。
我々はまた、物理学、生物学、化学、経済学、その他の科学における200以上の学部レベルの問題に対して、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-06-29T18:54:49Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。