論文の概要: AyurParam: A State-of-the-Art Bilingual Language Model for Ayurveda
- arxiv url: http://arxiv.org/abs/2511.02374v1
- Date: Tue, 04 Nov 2025 08:53:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.861295
- Title: AyurParam: A State-of-the-Art Bilingual Language Model for Ayurveda
- Title(参考訳): AyurParam: Ayurvedaのための最先端のバイリンガル言語モデル
- Authors: Mohd Nauman, Sravan Gvm, Vijay Devane, Shyam Pawar, Viraj Thakur, Kundeshwar Pundalik, Piyush Sawarkar, Rohit Saluja, Maunendra Desarkar, Ganesh Ramakrishnan,
- Abstract要約: Param-1-2.9Bを微調整したドメイン特化バイリンガル言語モデルであるAyurParam-2.9Bを紹介する。
AyurParamのデータセットには、英語とヒンディー語の両方でコンテキスト認識、推論、客観的スタイルのQ&Aが含まれている。
- 参考スコア(独自算出の注目度): 11.706968180135918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current large language models excel at broad, general-purpose tasks, but consistently underperform when exposed to highly specialized domains that require deep cultural, linguistic, and subject-matter expertise. In particular, traditional medical systems such as Ayurveda embody centuries of nuanced textual and clinical knowledge that mainstream LLMs fail to accurately interpret or apply. We introduce AyurParam-2.9B, a domain-specialized, bilingual language model fine-tuned from Param-1-2.9B using an extensive, expertly curated Ayurveda dataset spanning classical texts and clinical guidance. AyurParam's dataset incorporates context-aware, reasoning, and objective-style Q&A in both English and Hindi, with rigorous annotation protocols for factual precision and instructional clarity. Benchmarked on BhashaBench-Ayur, AyurParam not only surpasses all open-source instruction-tuned models in its size class (1.5--3B parameters), but also demonstrates competitive or superior performance compared to much larger models. The results from AyurParam highlight the necessity for authentic domain adaptation and high-quality supervision in delivering reliable, culturally congruent AI for specialized medical knowledge.
- Abstract(参考訳): 現在の大きな言語モデルは、幅広い汎用的なタスクで優れているが、深い文化的、言語的、そして主題的な専門知識を必要とする高度に専門的なドメインに露出すると、一貫してパフォーマンスが低下する。
特に、Ayurvedaのような伝統的な医療システムでは、何世紀にもわたって、主要なLSMが正確に解釈または適用できないような、曖昧なテキストと臨床知識を具現化している。
AyurParam-2.9BはParam-1-2.9Bから微調整されたドメイン特化バイリンガル言語モデルである。
AyurParamのデータセットは、文脈認識、推論、客観的なQ&Aを英語とヒンディー語の両方に組み込んでいる。
BhashaBench-AyurでベンチマークされたAyurParamは、サイズクラス(1.5--3Bパラメータ)のすべてのオープンソース命令チューニングモデルを上回るだけでなく、はるかに大きなモデルと比較して、競争力や優れたパフォーマンスを示す。
AyurParamの成果は、専門的な医療知識のための信頼性と文化的に整合したAIを提供する上で、真のドメイン適応と高品質な監視の必要性を強調している。
関連論文リスト
- MedQARo: A Large-Scale Benchmark for Medical Question Answering in Romanian [50.767415194856135]
ルーマニア初の大規模医療QAベンチマークであるMedQARoを紹介する。
がん患者に関連する102,646のQAペアからなる高品質で大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2025-08-22T13:48:37Z) - Lingshu: A Generalist Foundation Model for Unified Multimodal Medical Understanding and Reasoning [57.873833577058]
医療知識の豊富なマルチモーダルデータセットを構築した。
次に医学専門のMLLMであるLingshuを紹介します。
Lingshuは、医療専門知識の組み込みとタスク解決能力の向上のために、マルチステージトレーニングを行っている。
論文 参考訳(メタデータ) (2025-06-08T08:47:30Z) - Baichuan-M1: Pushing the Medical Capability of Large Language Models [26.01727057904137]
医療応用に特化して最適化された大規模言語モデルであるBaichuan-M1を紹介する。
既存のモデルで事前訓練を続ける従来のアプローチとは異なり、Baichuan-M1は医療能力の向上に重点を置いてゼロから訓練されている。
我々のモデルは20兆のトークンで訓練され、一般的な能力と医療の専門知識のバランスをとるための、さまざまな効果的な訓練方法が組み込まれています。
論文 参考訳(メタデータ) (2025-02-18T09:21:12Z) - Towards Democratizing Multilingual Large Language Models For Medicine Through A Two-Stage Instruction Fine-tuning Approach [6.921012069327385]
オープンソースの多言語医療用大規模言語モデル (LLM) は、様々な地域において言語的に多様な人口を提供する可能性を秘めている。
6言語で200万以上の高品質な医療サンプルを含む2つの多言語命令微調整データセットを導入する。
第1段階はMMed-IFTを用いて一般的な医療知識を注入し,第2段階はMMed-IFT-MCを用いたタスク固有の複数選択質問を行う。
論文 参考訳(メタデータ) (2024-09-09T15:42:19Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Intent Identification and Entity Extraction for Healthcare Queries in
Indic Languages [16.39183257795811]
インドのような先進国では、データとリソース不足言語の技術的な制限が、医療のための高度なNLUシステムの開発に脅威をもたらしている。
本稿では、2つの異なるヘルスケアデータセットを提案する。
我々の目標は、クエリインテントを検出し、対応するエンティティを抽出することである。
論文 参考訳(メタデータ) (2023-02-19T22:53:03Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Learning Domain-Specialised Representations for Cross-Lingual Biomedical
Entity Linking [66.76141128555099]
言語横断型バイオメディカルエンティティリンクタスク(XL-BEL)を提案する。
まず、標準単言語英語BELタスクを超えて、標準単言語および多言語LMと同様に、標準的な知識に依存しない能力について検討する。
次に、リソースに富んだ言語からリソースに乏しい言語にドメイン固有の知識を移すことの課題に対処する。
論文 参考訳(メタデータ) (2021-05-30T00:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。