論文の概要: From Chat to Checkup: Can Large Language Models Assist in Diabetes Prediction?
- arxiv url: http://arxiv.org/abs/2506.14949v1
- Date: Tue, 17 Jun 2025 20:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.469816
- Title: From Chat to Checkup: Can Large Language Models Assist in Diabetes Prediction?
- Title(参考訳): チャットからチェックアップ:大規模言語モデルは糖尿病予測に有効か?
- Authors: Shadman Sakib, Oishy Fatema Akhand, Ajwad Abrar,
- Abstract要約: ゼロショット,ワンショット,3ショットプロンプト法による糖尿病予測におけるLarge Language Models(LLMs)の有効性を検証した。
我々は、Gemma-2-27B、Mistral-7B、Llama-3.1-8B、Llama-3.2-2Bの4つのオープンソースモデルを含む6つのLCMを評価した。
GPT-4o と Gemma-2-27B では,プロプライエタリな LLM がオープンソースよりも高い精度で動作可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While Machine Learning (ML) and Deep Learning (DL) models have been widely used for diabetes prediction, the use of Large Language Models (LLMs) for structured numerical data is still not well explored. In this study, we test the effectiveness of LLMs in predicting diabetes using zero-shot, one-shot, and three-shot prompting methods. We conduct an empirical analysis using the Pima Indian Diabetes Database (PIDD). We evaluate six LLMs, including four open-source models: Gemma-2-27B, Mistral-7B, Llama-3.1-8B, and Llama-3.2-2B. We also test two proprietary models: GPT-4o and Gemini Flash 2.0. In addition, we compare their performance with three traditional machine learning models: Random Forest, Logistic Regression, and Support Vector Machine (SVM). We use accuracy, precision, recall, and F1-score as evaluation metrics. Our results show that proprietary LLMs perform better than open-source ones, with GPT-4o and Gemma-2-27B achieving the highest accuracy in few-shot settings. Notably, Gemma-2-27B also outperforms the traditional ML models in terms of F1-score. However, there are still issues such as performance variation across prompting strategies and the need for domain-specific fine-tuning. This study shows that LLMs can be useful for medical prediction tasks and encourages future work on prompt engineering and hybrid approaches to improve healthcare predictions.
- Abstract(参考訳): 機械学習(ML)とディープラーニング(DL)モデルは糖尿病予測に広く利用されているが、構造化された数値データにLLM(Large Language Models)を用いることは、まだ十分に研究されていない。
本研究では,ゼロショット,ワンショット,3ショットプロンプト法による糖尿病予測におけるLDMの有効性を検証した。
我々はPima Indian Diabetes Database (PIDD)を用いて経験的分析を行う。
我々は、Gemma-2-27B、Mistral-7B、Llama-3.1-8B、Llama-3.2-2Bの4つのオープンソースモデルを含む6つのLCMを評価した。
GPT-4oとGemini Flash 2.0の2つのプロプライエタリモデルもテストしています。
さらに、これらのパフォーマンスをRandom Forest、Logistic Regression、Support Vector Machine(SVM)という従来の3つの機械学習モデルと比較する。
私たちは評価指標として精度、精度、リコール、F1スコアを使用します。
GPT-4o と Gemma-2-27B では,プロプライエタリな LLM がオープンソースよりも高い精度で動作可能であることを示す。
特に、Gemma-2-27BはF1スコアで従来のMLモデルより優れている。
しかし、プロンプト戦略におけるパフォーマンスの変動や、ドメイン固有の微調整の必要性といった問題はまだ残っている。
本研究は, LLMが医療予測タスクに有用であることを示し, 医療予測を改善するために, 迅速な工学的アプローチとハイブリッドアプローチを推奨する。
関連論文リスト
- Machine Learning for Everyone: Simplifying Healthcare Analytics with BigQuery ML [0.0]
機械学習(ML)は、予測分析、パーソナライズされた治療、そして患者の結果を改善することで、医療を変革する。
従来のMLは専門的なスキル、インフラ、リソースを必要とし、多くの医療専門家のアクセシビリティを制限する。
本稿では、医療研究者やデータアナリストが、高度なML知識を必要とせずに、sqlを使用してモデルを構築し、デプロイするのに役立つBigQuery MLクラウドサービスについて説明する。
論文 参考訳(メタデータ) (2025-02-10T20:38:53Z) - Large Language Models for Medical Forecasting -- Foresight 2 [0.573038865401108]
Foresight 2 (FS2) は、患者のスケジュールをモデル化するための病院データに基づいて微調整された大きな言語モデルである。
患者の臨床ノートを理解し、幅広いバイオメディカル・ユースケースのSNOMEDコードを予測する。
論文 参考訳(メタデータ) (2024-12-14T14:45:28Z) - Predicting Emergent Capabilities by Finetuning [98.9684114851891]
微調整された言語モデルでは,出現頻度の低いモデルに展開するスケーリングのポイントをシフトできることがわかった。
提案手法は4つの標準NLPベンチマークを用いて検証する。
いくつかのケースでは、最大4倍の計算でトレーニングされたモデルが出現したかどうかを正確に予測できる。
論文 参考訳(メタデータ) (2024-11-25T01:48:09Z) - Vision-Language and Large Language Model Performance in Gastroenterology: GPT, Claude, Llama, Phi, Mistral, Gemma, and Quantized Models [0.06555599394344236]
本研究では,大言語モデル (LLMs) と視覚言語モデル (VLMs) の胃腸科学における医学的推論性能を評価する。
我々は,300の胃腸科検査式多票質問紙を使用し,そのうち138は画像を含んでいた。
論文 参考訳(メタデータ) (2024-08-25T14:50:47Z) - Improving Entity Recognition Using Ensembles of Deep Learning and Fine-tuned Large Language Models: A Case Study on Adverse Event Extraction from Multiple Sources [13.750202656564907]
副作用イベント(AE)抽出は、免疫の安全プロファイルを監視し解析するために重要である。
本研究では,AE抽出における大規模言語モデル(LLM)と従来のディープラーニングモデルの有効性を評価することを目的とする。
論文 参考訳(メタデータ) (2024-06-26T03:56:21Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - Position: AI Evaluation Should Learn from How We Test Humans [65.36614996495983]
人間の評価のための20世紀起源の理論である心理測定は、今日のAI評価における課題に対する強力な解決策になり得る、と我々は主張する。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - CancerGPT: Few-shot Drug Pair Synergy Prediction using Large Pre-trained
Language Models [3.682742580232362]
大規模事前学習言語モデル(LLM)は、様々な分野にわたる数ショット学習において大きな可能性を秘めている。
我々の研究は、限られたデータを持つまれな組織において、薬物対のシナジー予測に最初に取り組みました。
論文 参考訳(メタデータ) (2023-04-18T02:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。