論文の概要: MedAide: Leveraging Large Language Models for On-Premise Medical
Assistance on Edge Devices
- arxiv url: http://arxiv.org/abs/2403.00830v1
- Date: Wed, 28 Feb 2024 08:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 23:08:08.840657
- Title: MedAide: Leveraging Large Language Models for On-Premise Medical
Assistance on Edge Devices
- Title(参考訳): MedAide: エッジデバイス上でのオンデマンド医療支援に大規模言語モデルを活用する
- Authors: Abdul Basit, Khizar Hussain, Muhammad Abdullah Hanif, Muhammad
Shafique
- Abstract要約: 大規模言語モデル(LLM)は、その顕著な自然言語処理(NLP)能力によって、様々な領域に革命をもたらしている。
しかし,資源制約のあるエッジコンピューティングや組み込みシステムにLLMをデプロイすることは,大きな課題となる。
これらの課題には、限られた医療施設とインフラを備えた遠隔地での医療支援の提供が含まれる。
- 参考スコア(独自算出の注目度): 7.042194397224198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are revolutionizing various domains with their
remarkable natural language processing (NLP) abilities. However, deploying LLMs
in resource-constrained edge computing and embedded systems presents
significant challenges. Another challenge lies in delivering medical assistance
in remote areas with limited healthcare facilities and infrastructure. To
address this, we introduce MedAide, an on-premise healthcare chatbot. It
leverages tiny-LLMs integrated with LangChain, providing efficient edge-based
preliminary medical diagnostics and support. MedAide employs model
optimizations for minimal memory footprint and latency on embedded edge devices
without server infrastructure. The training process is optimized using low-rank
adaptation (LoRA). Additionally, the model is trained on diverse medical
datasets, employing reinforcement learning from human feedback (RLHF) to
enhance its domain-specific capabilities. The system is implemented on various
consumer GPUs and Nvidia Jetson development board. MedAide achieves 77\%
accuracy in medical consultations and scores 56 in USMLE benchmark, enabling an
energy-efficient healthcare assistance platform that alleviates privacy
concerns due to edge-based deployment, thereby empowering the community.
- Abstract(参考訳): 大規模言語モデル(LLM)は、その顕著な自然言語処理(NLP)能力によって、様々な領域に革命をもたらしている。
しかし,資源制約のあるエッジコンピューティングや組み込みシステムにLLMをデプロイすることは,大きな課題となる。
もう一つの課題は、医療施設やインフラが限られている遠隔地に医療援助を提供することである。
この問題を解決するために、オンプレミスのヘルスケアチャットボットであるMedAideを紹介します。
LangChainと統合された小さなLLMを活用し、効率的なエッジベースの医療診断とサポートを提供する。
MedAideは、最小限のメモリフットプリントとレイテンシーを、サーバーインフラストラクチャなしで組み込みエッジデバイス上でモデル最適化する。
トレーニングプロセスはローランク適応(LoRA)を用いて最適化される。
さらに、モデルは多様な医療データセットに基づいて訓練され、人間からのフィードバック(RLHF)からの強化学習を用いてドメイン固有の能力を向上させる。
このシステムは、様々な消費者向けGPUとNvidia Jetson開発ボードで実装されている。
MedAideは医療相談で77%の精度を達成し、USMLEベンチマークで56点を記録し、エッジベースのデプロイメントによるプライバシー上の懸念を軽減するエネルギー効率の高い医療支援プラットフォームを可能にし、コミュニティを力づける。
関連論文リスト
- Democratizing MLLMs in Healthcare: TinyLLaVA-Med for Efficient Healthcare Diagnostics in Resource-Constrained Settings [7.227964619923918]
汎用MLLMであるTinyLLaVAの最適化手法を導入し,TinyLLaVA-Medと命名した。
この適応には、LLaVA-Medトレーニングパイプラインからインスピレーションを得て、医療データセット上での命令チューニングと微調整のTinyLLaVAが含まれる。
提案手法は計算複雑性と消費電力を最小化し,TinyLLaVA-Medは18.9W,メモリは11.9GBであり,VQA-RADは64.54%,SLAKEは70.70%であった。
論文 参考訳(メタデータ) (2024-09-02T21:14:16Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Privacy-Preserving Edge Federated Learning for Intelligent Mobile-Health Systems [4.082799056366928]
我々は、IoTインフラストラクチャ上でのリソース制約のあるモバイルヘルスおよびウェアラブル技術のための、プライバシ保護エッジFLフレームワークを提案する。
提案したフレームワークを広く評価し、AmazonのAWSクラウドプラットフォーム上での当社のテクニックの実装を提供します。
論文 参考訳(メタデータ) (2024-05-09T08:15:31Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Apollo: A Lightweight Multilingual Medical LLM towards Democratizing Medical AI to 6B People [68.59917533894608]
我々は6つの最も広く話されている言語にまたがる医療用LLMの開発を目指しており、世界人口は610億人である。
この取り組みは、ApolloCorpora多言語医療データセットとXMedBenchベンチマークの作成で頂点に達した。
トレーニングコーパス、コード、モデルの重み付け、評価ベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2024-03-06T11:56:02Z) - MEDITRON-70B: Scaling Medical Pretraining for Large Language Models [91.25119823784705]
大きな言語モデル(LLM)は、医療知識へのアクセスを民主化することができる。
医療領域に適応した7Bおよび70BパラメータのオープンソースLLMスイートであるMEDITRONをリリースする。
論文 参考訳(メタデータ) (2023-11-27T18:49:43Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z) - Multilingual Medical Question Answering and Information Retrieval for
Rural Health Intelligence Access [1.0499611180329804]
いくつかの発展途上国の農村部では、高品質な医療、医療インフラ、専門的診断へのアクセスはほとんど利用できない。
このような医療アクセスの欠如、患者の以前の健康記録の欠如、および先住民語での情報の置換によるいくつかの死を、容易に防ぐことができる。
本稿では,機械学習とNLP(Natural Language Processing)技術における現象の進展を利用して,低リソース・多言語・予備的ファーストポイント・オブ・コンタクト・メディカルアシスタントを設計するアプローチについて述べる。
論文 参考訳(メタデータ) (2021-06-02T16:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。