論文の概要: Transformer Models in Education: Summarizing Science Textbooks with AraBART, MT5, AraT5, and mBART
- arxiv url: http://arxiv.org/abs/2406.07692v1
- Date: Tue, 11 Jun 2024 20:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 21:16:01.847405
- Title: Transformer Models in Education: Summarizing Science Textbooks with AraBART, MT5, AraT5, and mBART
- Title(参考訳): 教育におけるトランスフォーマーモデル:AraBART、MT5、AraT5、mBARTによるサイエンス教科書の要約
- Authors: Sari Masri, Yaqeen Raddad, Fidaa Khandaqji, Huthaifa I. Ashqar, Mohammed Elhenawy,
- Abstract要約: 我々はアラビア語の教科書を対象とする高度なテキスト要約システムを開発した。
このシステムは、パレスチナのカリキュラムにおいて、11年生と12年生の生物学教科書で見られる最も重要な文章を評価し、抽出する。
- 参考スコア(独自算出の注目度): 4.214194481944042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, with the rapid development in the fields of technology and the increasing amount of text t available on the internet, it has become urgent to develop effective tools for processing and understanding texts in a way that summaries the content without losing the fundamental essence of the information. Given this challenge, we have developed an advanced text summarization system targeting Arabic textbooks. Relying on modern natu-ral language processing models such as MT5, AraBART, AraT5, and mBART50, this system evaluates and extracts the most important sentences found in biology textbooks for the 11th and 12th grades in the Palestinian curriculum, which enables students and teachers to obtain accurate and useful summaries that help them easily understand the content. We utilized the Rouge metric to evaluate the performance of the trained models. Moreover, experts in education Edu textbook authoring assess the output of the trained models. This approach aims to identify the best solutions and clarify areas needing improvement. This research provides a solution for summarizing Arabic text. It enriches the field by offering results that can open new horizons for research and development in the technologies for understanding and generating the Arabic language. Additionally, it contributes to the field with Arabic texts through creating and compiling schoolbook texts and building a dataset.
- Abstract(参考訳): 近年,技術分野の急速な発展と,インターネット上で利用できるテキストtの量の増加により,情報の基本的基礎を損なうことなく,コンテンツを要約してテキストを処理・理解するための効果的なツールの開発が急務となっている。
この課題から、アラビア語の教科書を対象とする高度なテキスト要約システムを開発した。
MT5, AraBART, AraT5, mBART50などの現代のナチュラル言語処理モデルに基づいて, パレスチナのカリキュラムにおける11年生および12年生の生物学教科書で見られる最も重要な文章を評価し, 抽出し, 学生や教師が, 内容を容易に理解するための正確で有用な要約を得られるようにした。
トレーニングされたモデルの性能を評価するために,ルージュ測度を用いた。
さらに、教育エドゥの教科書執筆の専門家は、訓練されたモデルのアウトプットを評価する。
このアプローチは、最良のソリューションを特定し、改善が必要な領域を明確にすることを目的としています。
この研究はアラビア語のテキストを要約するための解決策を提供する。
アラビア語の理解と生成のための技術において、研究と開発のための新たな地平線を開くことができる結果を提供することによって、この分野を豊かにする。
さらに、教科書のテキストを作成し、編集し、データセットを構築することで、アラビア語のテキストでこの分野に貢献する。
関連論文リスト
- ARTIST: Improving the Generation of Text-rich Images by Disentanglement [52.23899502520261]
テキスト構造学習に焦点を当てたARTISTという新しいフレームワークを提案する。
我々は、事前訓練されたテキスト構造モデルからテキスト構造情報を同化できるように、視覚拡散モデルを微調整する。
MARIO-Evalベンチマークの実証結果は,提案手法の有効性を裏付けるものであり,様々な指標において最大15%の改善が見られた。
論文 参考訳(メタデータ) (2024-06-17T19:31:24Z) - Integrating A.I. in Higher Education: Protocol for a Pilot Study with 'SAMCares: An Adaptive Learning Hub' [0.6990493129893112]
本研究は,「SAMCares」と呼ぶ革新的な研究仲間を紹介することを目的としている。
このシステムは、Large Language Model(LLM)とRetriever-Augmented Generation(RAG)を利用して、リアルタイム、コンテキスト認識、適応的な教育サポートを提供する。
論文 参考訳(メタデータ) (2024-05-01T05:39:07Z) - Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - Automatic and Human-AI Interactive Text Generation [27.05024520190722]
本チュートリアルは、最先端の自然言語生成研究の概要を提供する。
テキストからテキストへの生成タスクは、セマンティック一貫性とターゲット言語スタイルの観点からより制約される。
論文 参考訳(メタデータ) (2023-10-05T20:26:15Z) - A Benchmark for Text Expansion: Datasets, Metrics, and Baselines [87.47745669317894]
本研究はテキスト拡張(TE)の新たな課題として,平文の適切な位置に細粒度修飾子を挿入することを目的とする。
補完的な4つのアプローチを活用して、1200万の自動生成インスタンスと2Kの人間注釈付き参照を持つデータセットを構築します。
事前訓練されたテキストインフィルモデルの上にパイプラインと共同でLocate&Infillモデルを構築し、Text2Textベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-17T07:54:38Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Uzbek text summarization based on TF-IDF [0.0]
本稿では,ウズベク語における要約課題について実験する。
この手法はTF-IDFアルゴリズムに基づくテキスト抽象化に基づいている。
テキスト全体の重要な部分にn-gram法を適用することで、与えられたテキストを要約する。
論文 参考訳(メタデータ) (2023-03-01T12:39:46Z) - A Survey on Arabic Named Entity Recognition: Past, Recent Advances, and
Future Trends [15.302538985992518]
我々はアラビア語 NER の発展に関する総合的なレビューを行う。
伝統的なアラビアのNERシステムは、機能工学とドメイン固有のルールの設計に重点を置いている。
事前訓練された言語モデルの成長に伴い、アラビア語のNERはより良いパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-02-07T14:56:52Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。