論文の概要: Bangla MedER: Multi-BERT Ensemble Approach for the Recognition of Bangla Medical Entity
- arxiv url: http://arxiv.org/abs/2512.17769v1
- Date: Fri, 19 Dec 2025 16:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.490586
- Title: Bangla MedER: Multi-BERT Ensemble Approach for the Recognition of Bangla Medical Entity
- Title(参考訳): Bangla MedER:Banglaメディカルエンティティ認識のためのマルチBERTアンサンブルアプローチ
- Authors: Tanjim Taharat Aurpa, Farzana Akter, Md. Mehedi Hasan, Shakil Ahmed, Shifat Ara Rafiq, Fatema Khan,
- Abstract要約: バングラの医療機関認識のための新しいマルチバート・アンサンブル・アプローチを提案する。
単一層BERTモデルよりも11.80%の精度向上を実現し、このタスクの有効性を実証している。
低リソース言語に対するMedERの大きな課題は、アノテーション付きデータセットの欠如である。
- 参考スコア(独自算出の注目度): 1.2049656102968953
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical Entity Recognition (MedER) is an essential NLP task for extracting meaningful entities from the medical corpus. Nowadays, MedER-based research outcomes can remarkably contribute to the development of automated systems in the medical sector, ultimately enhancing patient care and outcomes. While extensive research has been conducted on MedER in English, low-resource languages like Bangla remain underexplored. Our work aims to bridge this gap. For Bangla medical entity recognition, this study first examined a number of transformer models, including BERT, DistilBERT, ELECTRA, and RoBERTa. We also propose a novel Multi-BERT Ensemble approach that outperformed all baseline models with the highest accuracy of 89.58%. Notably, it provides an 11.80% accuracy improvement over the single-layer BERT model, demonstrating its effectiveness for this task. A major challenge in MedER for low-resource languages is the lack of annotated datasets. To address this issue, we developed a high-quality dataset tailored for the Bangla MedER task. The dataset was used to evaluate the effectiveness of our model through multiple performance metrics, demonstrating its robustness and applicability. Our findings highlight the potential of Multi-BERT Ensemble models in improving MedER for Bangla and set the foundation for further advancements in low-resource medical NLP.
- Abstract(参考訳): 医療エンティティ認識(MedER)は、医療コーパスから有意義な実体を抽出するために必要なNLPタスクである。
今日では、MedERによる研究成果は医療分野における自動化システムの発展に大きく貢献し、最終的には患者のケアと成果を高めることができる。
英語ではMedERについて広範な研究が行われてきたが、Banglaのような低リソース言語はまだ探索されていない。
私たちの仕事は、このギャップを埋めることを目的としています。
バングラの医療機関認識において,本研究ではまずBERT, DistilBERT, ELECTRA, RoBERTaなどのトランスフォーマーモデルについて検討した。
また、89.58%の精度で全てのベースラインモデルを上回る新しいマルチBERTアンサンブル手法を提案する。
特に、単一層BERTモデルよりも11.80%精度が向上し、このタスクの有効性を実証している。
低リソース言語に対するMedERの大きな課題は、アノテーション付きデータセットの欠如である。
この問題に対処するため,Bangla MedERタスクに適した高品質なデータセットを開発した。
データセットは、複数のパフォーマンス指標を通じてモデルの有効性を評価し、その堅牢性と適用性を示した。
本研究は,Bangla の MedER 改善における Multi-BERT Ensemble モデルの可能性を明らかにするとともに,低リソース医療用 NLP のさらなる進歩の基盤となることを目的とした。
関連論文リスト
- BanglaMedQA and BanglaMMedBench: Evaluating Retrieval-Augmented Generation Strategies for Bangla Biomedical Question Answering [0.13048920509133807]
本稿では,医療人工知能(AI)における推論と検索を評価するために設計された,最初の大規模データセットを紹介する。
この研究は、伝統的、ゼロショットフォールバック、エージェント、反復フィードバック、集約RAGなど、いくつかの検索強化ジェネレーション(RAG)戦略を適用し、ベンチマークする。
実験の結果、Agenic RAGはopenai/gpt-oss-120bで89.54%の精度を達成し、他の構成よりも優れ、より優れた合理的品質を示した。
論文 参考訳(メタデータ) (2025-11-06T17:15:33Z) - MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - MedicalBERT: enhancing biomedical natural language processing using pretrained BERT-based model [0.0]
MedicalBERTは、大規模なバイオメディカルデータセットに基づいてトレーニングされた、事前訓練されたBERTモデルである。
生物医学用語の理解を深めるドメイン固有の語彙を備えている。
MedicalBERTは、評価されたすべてのタスクで、汎用BERTモデルを平均5.67%上回る。
論文 参考訳(メタデータ) (2025-07-06T03:38:05Z) - Towards Evaluating and Building Versatile Large Language Models for Medicine [57.49547766838095]
MedS-Benchは大規模言語モデル(LLM)の性能を臨床的に評価するためのベンチマークである。
MedS-Benchは、臨床報告の要約、治療勧告、診断、名前付きエンティティ認識、医療概念説明を含む、11のハイレベルな臨床タスクにまたがる。
MedS-Insは58の医療指向言語コーパスで構成され、112のタスクで1350万のサンプルを収集している。
論文 参考訳(メタデータ) (2024-08-22T17:01:34Z) - Capabilities of Gemini Models in Medicine [100.60391771032887]
医療専門のマルチモーダルモデルであるMed-Geminiを紹介する。
メドジェニーニを14の医療ベンチマークで評価し,その内10に新たな最先端(SoTA)性能を確立した。
我々の結果は、Med-Geminiの可能性を示唆する証拠を提供するが、より厳密な評価は実世界の展開に先立って重要である。
論文 参考訳(メタデータ) (2024-04-29T04:11:28Z) - MeSIN: Multilevel Selective and Interactive Network for Medication
Recommendation [9.173903754083927]
薬物推奨のためのマルチレベル選択型対話型ネットワーク(MeSIN)を提案する。
まず、異なる医療コードの埋め込みに柔軟な注意スコアを割り当てるために注意選択モジュール(ASM)が適用されます。
第二に、EHRデータにおける多レベルの医療シーケンスの相互作用を強化するために、新しい対話型長期メモリネットワーク(InLSTM)を組み込む。
論文 参考訳(メタデータ) (2021-04-22T12:59:50Z) - Knowledge-Empowered Representation Learning for Chinese Medical Reading
Comprehension: Task, Model and Resources [36.960318276653986]
医療領域を対象としたマルチターゲットMRCタスクを導入し,医療質問に対する回答とそれに対応する文章を同時に予測することを目的とする。
本稿では, 医学知識を事前学習言語モデルに融合させる, タスクのための中国の医療用BERTモデル(CMedBERT)を提案する。
実験の結果,CMedBERTはコンテキスト認識と知識認識のトークン表現を融合することにより,強いベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-24T11:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。