論文の概要: An Ensemble Classification Approach in A Multi-Layered Large Language Model Framework for Disease Prediction
- arxiv url: http://arxiv.org/abs/2509.02446v1
- Date: Tue, 02 Sep 2025 15:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.091019
- Title: An Ensemble Classification Approach in A Multi-Layered Large Language Model Framework for Disease Prediction
- Title(参考訳): 病気予測のための多層大規模言語モデルフレームワークにおけるアンサンブル分類手法
- Authors: Ali Hamdi, Malak Mohamed, Rokaia Emad, Khaled Shaban,
- Abstract要約: 社会的遠隔医療は、患者が症状を投稿し、遠隔で医療相談に参加することを可能にすることで、医療において顕著な進歩を遂げてきた。
ユーザーはしばしばソーシャルメディアやオンライン健康プラットフォームに症状を投稿し、医療データの巨大なリポジトリを作成する。
大規模言語モデル(LLM)は、複雑な医療テキストを処理する上で強力な能力を示している。
- 参考スコア(独自算出の注目度): 0.4666493857924357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social telehealth has made remarkable progress in healthcare by allowing patients to post symptoms and participate in medical consultations remotely. Users frequently post symptoms on social media and online health platforms, creating a huge repository of medical data that can be leveraged for disease classification. Large language models (LLMs) such as LLAMA3 and GPT-3.5, along with transformer-based models like BERT, have demonstrated strong capabilities in processing complex medical text. In this study, we evaluate three Arabic medical text preprocessing methods such as summarization, refinement, and Named Entity Recognition (NER) before applying fine-tuned Arabic transformer models (CAMeLBERT, AraBERT, and AsafayaBERT). To enhance robustness, we adopt a majority voting ensemble that combines predictions from original and preprocessed text representations. This approach achieved the best classification accuracy of 80.56%, thus showing its effectiveness in leveraging various text representations and model predictions to improve the understanding of medical texts. To the best of our knowledge, this is the first work that integrates LLM-based preprocessing with fine-tuned Arabic transformer models and ensemble learning for disease classification in Arabic social telehealth data.
- Abstract(参考訳): 社会的遠隔医療は、患者が症状を投稿し、遠隔で医療相談に参加することを可能にすることで、医療において顕著な進歩を遂げてきた。
ユーザーはしばしばソーシャルメディアやオンライン健康プラットフォームに症状を投稿し、病気の分類に利用できる膨大な医療データのリポジトリを作成する。
LLAMA3やGPT-3.5のような大きな言語モデル(LLM)とBERTのようなトランスフォーマーベースのモデルは、複雑な医療テキストを処理する上で強力な能力を示している。
本研究では, アラビア文字変換器モデル(CAMeLBERT, AraBERT, AsafayaBERT)を適用する前に, 要約, 精細化, 名前付きエンティティ認識(NER)の3つの医療用テキスト前処理手法を評価する。
頑健性を高めるために、オリジナルおよび前処理されたテキスト表現からの予測を組み合わせた多数決アンサンブルを採用する。
このアプローチは80.56%の最高の分類精度を達成し,医療用テキストの理解を改善するために,様々なテキスト表現とモデル予測を活用することの有効性を示した。
我々の知る限りでは、これはLLMベースの前処理と微調整されたアラビア変圧器モデルと、アラビアの社会的遠隔医療データにおける病気分類のためのアンサンブル学習を統合した最初の作品である。
関連論文リスト
- MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - Leveraging large language models and traditional machine learning ensembles for ADHD detection from narrative transcripts [6.55440666066668]
本稿では,物語の書き起こしを用いたADHD診断(バイナリ)の自動分類のためのアンサンブルフレームワークを提案する。
LLaMA3、RoBERTa、SVM(Support Vector Machine)の3つの補完モデルを統合する。
実験の結果、アンサンブルは個々のモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-05-27T15:22:01Z) - A Multi-Layered Large Language Model Framework for Disease Prediction [0.0]
大きな言語モデル(LLM)は複雑な医療データを処理し、病気の分類を強化する。
本研究は,3つのアラビア医療用テキスト前処理技術について検討する。
CAMeL-BERT, AraBERT, Asafaya-BERTをLoRAで評価した。
論文 参考訳(メタデータ) (2025-01-30T18:53:50Z) - FaMeSumm: Investigating and Improving Faithfulness of Medical
Summarization [20.7585913214759]
現在の要約モデルは、しばしば医療入力テキストに対して不誠実な出力を生成する。
FaMeSummは、医学的知識に基づいて訓練済みの言語モデルを微調整することで、忠実性を改善するためのフレームワークである。
論文 参考訳(メタデータ) (2023-11-03T23:25:53Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - Multi-Modal Perceiver Language Model for Outcome Prediction in Emergency
Department [0.03088120935391119]
主訴のテキスト情報とトリアージで記録されたバイタルサインに基づいて, 病院救急部門における結果予測と患者トリアージに関心がある。
我々は、いくつかのアプリケーションで有望な結果を示すモダリティに依存しないトランスフォーマーベースのモデルであるPerceiverを適応する。
実験では,テキストやバイタルサインのみを訓練したモデルと比較して,変異モダリティが予測性能を向上させることを示した。
論文 参考訳(メタデータ) (2023-04-03T06:32:00Z) - MedKLIP: Medical Knowledge Enhanced Language-Image Pre-Training in
Radiology [40.52487429030841]
医用医用視覚言語事前訓練を専門知識と組み合わせて行うことを検討する。
まず, 生の報告を直接処理する既存の作業とは異なり, 医療関連情報を抽出するために, 新規な三重項抽出モジュールを採用する。
第2に,医療分野における豊富な知識を活用するために,知識ベースを問合せすることで,エンティティ翻訳を伴う新しい三重項符号化モジュールを提案する。
第3に、トランスフォーマーを用いた融合モデルを用いて、画像パッチレベルでの実体記述と視覚信号との空間的整合を図り、診断を可能にすることを提案する。
論文 参考訳(メタデータ) (2023-01-05T18:55:09Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。