論文の概要: Quantized Large Language Models in Biomedical Natural Language Processing: Evaluation and Recommendation
- arxiv url: http://arxiv.org/abs/2509.04534v1
- Date: Thu, 04 Sep 2025 04:18:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.362064
- Title: Quantized Large Language Models in Biomedical Natural Language Processing: Evaluation and Recommendation
- Title(参考訳): バイオメディカル自然言語処理における量子化大規模言語モデル:評価と勧告
- Authors: Zaifu Zhan, Shuang Zhou, Min Zeng, Kai Yu, Meijia Song, Xiaoyi Chen, Jun Wang, Yu Hou, Rui Zhang,
- Abstract要約: 本研究では,12種類の大規模言語モデルに対する量子化の影響を系統的に評価した。
量子化はGPUメモリの要求を最大75%減らし、様々なタスクでモデル性能を保っていることを示す。
- 参考スコア(独自算出の注目度): 23.003923723432436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have demonstrated remarkable capabilities in biomedical natural language processing, yet their rapid growth in size and computational requirements present a major barrier to adoption in healthcare settings where data privacy precludes cloud deployment and resources are limited. In this study, we systematically evaluated the impact of quantization on 12 state-of-the-art large language models, including both general-purpose and biomedical-specific models, across eight benchmark datasets covering four key tasks: named entity recognition, relation extraction, multi-label classification, and question answering. We show that quantization substantially reduces GPU memory requirements-by up to 75%-while preserving model performance across diverse tasks, enabling the deployment of 70B-parameter models on 40GB consumer-grade GPUs. In addition, domain-specific knowledge and responsiveness to advanced prompting methods are largely maintained. These findings provide significant practical and guiding value, highlighting quantization as a practical and effective strategy for enabling the secure, local deployment of large yet high-capacity language models in biomedical contexts, bridging the gap between technical advances in AI and real-world clinical translation.
- Abstract(参考訳): 大規模言語モデルは、バイオメディカル自然言語処理において顕著な能力を示しているが、そのサイズと計算要求の急速な増加は、データのプライバシがクラウドデプロイメントを妨げ、リソースが制限される医療環境において、大きな障壁となる。
本研究では,一般目的モデルとバイオメディカルモデルの両方を含む12種類の大規模言語モデルに対する量子化の影響を,エンティティ認識,関係抽出,複数ラベル分類,質問応答の4つの重要なタスクをカバーする8つのベンチマークデータセットに対して,体系的に評価した。
量子化はGPUのメモリ要求を最大75%削減し,様々なタスクにまたがるモデル性能を最大で75%削減し,40GBのコンシューマグレードGPUに70Bパラメータモデルをデプロイできることを示した。
さらに、高度なプロンプト手法に対するドメイン固有の知識と応答性は、主に維持されている。
これらの知見は,生物医学的文脈における大規模かつ高容量な言語モデルのセキュアかつ局所的な展開を可能にするための実用的かつ効果的な戦略として量子化を強調し,AIの技術的進歩と実際の臨床翻訳とのギャップを埋める,重要な実用的および指導的価値を提供する。
関連論文リスト
- Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Advancing bioinformatics with large language models: components, applications and perspectives [12.728981464533918]
LLM(Large Language Model)は、ディープラーニングに基づく人工知能モデルのクラスである。
バイオインフォマティクスにおける大規模言語モデル(LLM)の本質的構成要素について概観する。
主な側面としては、さまざまなデータ型に対するトークン化メソッド、トランスフォーマーモデルのアーキテクチャ、コアアテンションメカニズムなどがある。
論文 参考訳(メタデータ) (2024-01-08T17:26:59Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Exploring the In-context Learning Ability of Large Language Model for
Biomedical Concept Linking [4.8882241537236455]
本研究では,生物医学的概念リンクのための大規模モデルのコンテキスト内学習機能を活用する手法について検討する。
提案手法は2段階のレトリーブ・アンド・ランク・フレームワークを採用する。
BC5CDRの病体正規化では90.%、化学体正規化では94.7%の精度を達成した。
論文 参考訳(メタデータ) (2023-07-03T16:19:50Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - Localising In-Domain Adaptation of Transformer-Based Biomedical Language
Models [0.987336898133886]
我々は、英語以外の言語で生物医学的言語モデルを導出するための2つのアプローチを提案する。
1つは、英語リソースのニューラルネットワーク翻訳に基づくもので、品質よりも量を好む。
もう一つは、イタリア語で書かれた高品位で細いスコープのコーパスに基づいており、量よりも質を優先している。
論文 参考訳(メタデータ) (2022-12-20T16:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。