論文の概要: BioPars: A Pretrained Biomedical Large Language Model for Persian Biomedical Text Mining
- arxiv url: http://arxiv.org/abs/2506.21567v2
- Date: Tue, 01 Jul 2025 19:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.048
- Title: BioPars: A Pretrained Biomedical Large Language Model for Persian Biomedical Text Mining
- Title(参考訳): BioPars:ペルシャのバイオメディカルテキストマイニングのための事前訓練されたバイオメディカル大規模言語モデル
- Authors: Baqer M. Merzah, Tania Taami, Salman Asoudeh, Saeed Mirzaee, Amir reza Hossein pour, Amir Ali Bengari,
- Abstract要約: BIOPARS-BENCHは1万以上の科学論文、教科書、医療ウェブサイトのデータセットである。
BioParsQAも提案されたモデルを評価するために導入され、5,231のペルシアの医療質問と回答からなる。
- 参考スコア(独自算出の注目度): 0.26388783516590225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have recently gained attention in the life sciences due to their capacity to model, extract, and apply complex biological information. Beyond their classical use as chatbots, these systems are increasingly used for complex analysis and problem-solving in specialized fields, including bioinformatics. First, we introduce BIOPARS-BENCH, a dataset from over 10,000 scientific articles, textbooks, and medical websites. BioParsQA was also introduced to evaluate the proposed model, which consists of 5,231 Persian medical questions and answers. This study then introduces BioPars, a simple but accurate measure designed to assess LLMs for three main abilities: acquiring subject-specific knowledge, interpreting and synthesizing such knowledge, and demonstrating proper evidence. Comparing ChatGPT, Llama, and Galactica, our study highlights their ability to remember and retrieve learned knowledge but also reveals shortcomings in addressing higher-level, real-world questions and fine-grained inferences. These findings indicate the need for further fine-tuning to address the capabilities of LLM in bioinformatics tasks. To our knowledge, BioPars is the first application of LLM in Persian medical QA, especially for generating long answers. Evaluation of four selected medical QA datasets shows that BioPars has achieved remarkable results compared to comparative approaches. The model on BioParsQA achieved a ROUGE-L score of 29.99, which is an improvement over GPT-4 1.0. The model achieved a BERTScore of 90.87 with the MMR method. The MoverScore and BLEURT values were also higher in this model than the other three models. In addition, the reported scores for the model are MoverScore=60.43 and BLEURT=50.78. BioPars is an ongoing project and all resources related to its development will be made available via the following GitHub repository: https://github.com/amirap80/BioPars.
- Abstract(参考訳): 大規模言語モデル(LLM)は最近、複雑な生物学的情報をモデル化、抽出、適用する能力から、生命科学において注目を集めている。
チャットボットとしての古典的使用以外にも、これらのシステムはバイオインフォマティクスを含む専門分野の複雑な分析や問題解決にますます利用されている。
まず,1万以上の科学論文,教科書,医療ウェブサイトのデータセットであるBIOPARS-BENCHを紹介する。
BioParsQAも提案されたモデルを評価するために導入され、5,231のペルシアの医療質問と回答からなる。
そこで本研究では,主観的な知識の獲得,そのような知識の解釈と合成,適切な証拠の証明という,3つの主要な能力についてLLMを評価するためのシンプルだが正確な尺度であるBioParsを紹介した。
ChatGPT、Llama、Galacticaと比較すると、学習した知識を記憶し、取得する能力を強調しながら、より高レベルで現実世界の質問に対処する際の欠点と、きめ細かい推測を明らかにする。
これらの結果から, バイオインフォマティクスタスクにおけるLCMの能力について, さらなる微調整の必要性が示唆された。
私たちの知る限り、BioParsは、ペルシャの医療QA、特に長い回答を生み出すために、初めてLLMを応用しました。
選択された4つのQAデータセットの評価は、BioParsが比較手法と比較して顕著な結果を得たことを示している。
BioParsQAのモデルはROUGE-Lスコア29.99を達成し、GPT-4 1.0よりも改善された。
このモデルは MMR 法で 90.87 の BERTScore を達成した。
MoverScoreとBLEURTの値も他の3モデルよりも高かった。
また、MoverScore=60.43、BLEURT=50.78と報告されている。
BioParsは進行中のプロジェクトであり、開発に関連するすべてのリソースは以下のGitHubリポジトリを通じて利用可能になる。
関連論文リスト
作成中
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。