論文の概要: Question-Answering System for Bangla: Fine-tuning BERT-Bangla for a Closed Domain
- arxiv url: http://arxiv.org/abs/2410.03923v1
- Date: Fri, 4 Oct 2024 20:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 15:31:01.518751
- Title: Question-Answering System for Bangla: Fine-tuning BERT-Bangla for a Closed Domain
- Title(参考訳): バングラの質問応答システム:クローズドドメインのための細調整BERT-Bangla
- Authors: Subal Chandra Roy, Md Motaleb Hossen Manik,
- Abstract要約: 閉領域における細調整BERT-Banglaモデルを用いたベンガル語問答システムの開発について述べる。
このシステムは、キュレートされたデータから2500の質問応答対を抽出し、評価した。
この結果は,ドメイン固有なベンガル質問答えシステムに有望な可能性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question-answering systems for Bengali have seen limited development, particularly in domain-specific applications. Leveraging advancements in natural language processing, this paper explores a fine-tuned BERT-Bangla model to address this gap. It presents the development of a question-answering system for Bengali using a fine-tuned BERT-Bangla model in a closed domain. The dataset was sourced from Khulna University of Engineering \& Technology's (KUET) website and other relevant texts. The system was trained and evaluated with 2500 question-answer pairs generated from curated data. Key metrics, including the Exact Match (EM) score and F1 score, were used for evaluation, achieving scores of 55.26\% and 74.21\%, respectively. The results demonstrate promising potential for domain-specific Bengali question-answering systems. Further refinements are needed to improve performance for more complex queries.
- Abstract(参考訳): Bengaliの質問応答システムは、特にドメイン固有のアプリケーションにおいて、開発が限られている。
本稿では,自然言語処理の進歩を生かして,このギャップに対処するための細調整BERT-Banglaモデルについて検討する。
閉領域における細調整BERT-Banglaモデルを用いたベンガル語問答システムの開発について述べる。
データセットは、Khulna University of Engineering \& Technology(KUET)のウェブサイトや他の関連するテキストから得られた。
このシステムは、キュレートされたデータから2500の質問応答対を抽出し、評価した。
Exact Match (EM) スコアと F1 スコアを含む主要な指標が評価に使われ、それぞれ 55.26\% と 74.21\% のスコアが得られた。
この結果は,ドメイン固有なベンガル質問答えシステムに有望な可能性を示す。
より複雑なクエリのパフォーマンスを改善するためには、さらなる改善が必要である。
関連論文リスト
- The Death of Feature Engineering? BERT with Linguistic Features on SQuAD 2.0 [16.95168095046929]
BERTと追加の言語的特徴を取り入れたエンドツーエンドの質問応答モデルを開発した。
EMスコアとF1スコアはBERT(base)と比較して2.17と2.14が改善される
論文 参考訳(メタデータ) (2024-04-04T03:50:34Z) - LowResource at BLP-2023 Task 2: Leveraging BanglaBert for Low Resource
Sentiment Analysis of Bangla Language [0.5922488908114022]
本稿では,BLP-2023のタスク2におけるLowResource Teamのシステムについて述べる。
さまざまなソーシャルメディアプラットフォームからの公開投稿とコメントからなるデータセットで感情分析を行う。
我々の主な目的は、Bangla corpusで事前訓練されたBERTモデルであるBanglaBertを利用することです。
論文 参考訳(メタデータ) (2023-11-21T17:21:15Z) - Design and Development of Rule-based open-domain Question-Answering
System on SQuAD v2.0 Dataset [0.0]
我々はルールベースのオープンドメイン問合せシステムを提案し、対応するコンテキストパスから任意のドメインの問合せに答えることができる。
我々は、SQuAD 2.0データセットから1000の質問を開発システムをテストするために使いました。
論文 参考訳(メタデータ) (2022-03-27T07:51:18Z) - When BERT Meets Quantum Temporal Convolution Learning for Text
Classification in Heterogeneous Computing [75.75419308975746]
本研究は,変分量子回路に基づく垂直連合学習アーキテクチャを提案し,テキスト分類のための量子化事前学習BERTモデルの競争性能を実証する。
目的分類実験により,提案したBERT-QTCモデルにより,SnipsおよびATIS音声言語データセットの競合実験結果が得られた。
論文 参考訳(メタデータ) (2022-02-17T09:55:21Z) - Addressing Issues of Cross-Linguality in Open-Retrieval Question
Answering Systems For Emergent Domains [67.99403521976058]
新型コロナウイルスの緊急ドメインに対する言語横断的オープン検索型質問応答システムについて紹介する。
本システムでは,検索した文書の信頼性を確保するために,学術論文のコーパスを採用している。
深いセマンティック・レトリバーは、我々の英語からすべてのデータに対するトレーニングの恩恵が大きく、言語横断環境ではBM25ベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-01-26T19:27:32Z) - In Situ Answer Sentence Selection at Web-scale [120.69820139008138]
Passage-based Extracting Answer Sentence In-place (PEASI)は、Webスケール設定に最適化されたAS2の新しい設計である。
PEASIをマルチタスク学習フレームワークでトレーニングし,各コンポーネント間の特徴共有を促進する。
実験により、PEASIはAS2の現在の最先端設定、すなわち文を独立してランク付けするためのポイントワイズモデルを6.51%精度で効果的に上回っている。
論文 参考訳(メタデータ) (2022-01-16T06:36:00Z) - An Attention Ensemble Approach for Efficient Text Classification of
Indian Languages [0.0]
本稿では,インド・デヴァナガリ文字を母語とするマラーティー語における短文文書の細かな技術領域識別について述べる。
畳み込みニューラルネットワークが生成する中間文表現と双方向の長期記憶とを合体させ,効率的なテキスト分類を実現するcnn-bilstm注意アンサンブルモデルを提案する。
実験結果から,提案モデルが与えられたタスクにおける各種ベースライン機械学習および深層学習モデルより優れ,89.57%,f1スコア0.8875の検証精度が得られた。
論文 参考訳(メタデータ) (2021-02-20T07:31:38Z) - CMT in TREC-COVID Round 2: Mitigating the Generalization Gaps from Web
to Special Domain Search [89.48123965553098]
本稿では,特殊領域適応問題を緩和する探索システムを提案する。
このシステムは、ドメイン適応型事前学習と数発の学習技術を利用して、ニューラルネットワークがドメインの不一致を軽減するのに役立つ。
本システムでは,TREC-COVID タスクの第2ラウンドにおいて,非マニュアル実行において最善を尽くす。
論文 参考訳(メタデータ) (2020-11-03T09:10:48Z) - Ranking Clarification Questions via Natural Language Inference [25.433933534561568]
自然言語クエリが与えられた場合、質問を明確にする機械は、実用的な自然言語処理システムにおいて非常に有用である。
明確化質問のランク付けの課題として,あるポストの欠落に関連する明確化質問が,自然言語推論(NLI)の特別な事例とみなすことができる,という仮説を立てる。
我々は、この仮説を、NLIおよびMulti-NLIデータセットに基づいて微調整されたSiamese BERTモデルからの表現をモデルに組み込むことで検証する。
論文 参考訳(メタデータ) (2020-08-18T01:32:29Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Differentiable Reasoning over a Virtual Knowledge Base [156.94984221342716]
コーパスを仮想知識ベース(KB)として,複雑なマルチホップ質問に答えるタスクについて検討する。
特に、コーパス内のエンティティの参照間の関係の経路をソフトに追従し、KBのようにテキストデータをトラバースするDrKITについて述べる。
DrKITは非常に効率的で、既存のマルチホップシステムよりも毎秒10-100倍のクエリを処理する。
論文 参考訳(メタデータ) (2020-02-25T03:13:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。