論文の概要: LLM4Sweat: A Trustworthy Large Language Model for Hyperhidrosis Support
- arxiv url: http://arxiv.org/abs/2508.15192v1
- Date: Thu, 21 Aug 2025 03:04:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.157405
- Title: LLM4Sweat: A Trustworthy Large Language Model for Hyperhidrosis Support
- Title(参考訳): LLM4Sweat: ハイパヒドロシスをサポートするための信頼できる大規模言語モデル
- Authors: Wenjie Lin, Jin Wei-Kocsis,
- Abstract要約: 大規模言語モデル(LLM)は医療において有望であるが、そのアプリケーションは微調整のための不足と信頼性の低いデータセットによって妨げられている。
LLM4Sweatは,信頼性と共感性ハイヒドロシス支援のためのオープンソースフレームワークである。
LLM4Sweatはベースラインを上回り、ハイパーヒドロシスのための最初のオープンソースのLLMフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.6755874937407783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have shown promise in healthcare, their application for rare medical conditions is still hindered by scarce and unreliable datasets for fine-tuning. Hyperhidrosis, a disorder causing excessive sweating beyond physiological needs, is one such rare disorder, affecting 2-3% of the population and significantly impacting both physical comfort and psychosocial well-being. To date, no work has tailored LLMs to advance the diagnosis or care of hyperhidrosis. To address this gap, we present LLM4Sweat, an open-source and domain-specific LLM framework for trustworthy and empathetic hyperhidrosis support. The system follows a three-stage pipeline. In the data augmentation stage, a frontier LLM generates medically plausible synthetic vignettes from curated open-source data to create a diverse and balanced question-answer dataset. In the fine-tuning stage, an open-source foundation model is fine-tuned on the dataset to provide diagnosis, personalized treatment recommendations, and empathetic psychological support. In the inference and expert evaluation stage, clinical and psychological specialists assess accuracy, appropriateness, and empathy, with validated responses iteratively enriching the dataset. Experiments show that LLM4Sweat outperforms baselines and delivers the first open-source LLM framework for hyperhidrosis, offering a generalizable approach for other rare diseases with similar data and trustworthiness challenges.
- Abstract(参考訳): 大きな言語モデル(LLM)は医療において有望であるが、希少な医療条件への適用は、微調整のための不足と信頼性の低いデータセットによって妨げられている。
過密症は、生理的ニーズを超えて過度に汗をかいている障害であり、人口の2-3%に影響を及ぼし、身体の快適さと精神社会的幸福の両方に大きな影響を与えている。
現在までに、高ヒドロシスの診断や治療を進めるためにLPMを調整した研究は行われていない。
LLM4Sweatは,オープンソースかつドメイン固有のLLMフレームワークであり,信頼性と共感性ハイヒドロシス支援のためのフレームワークである。
システムは3段階のパイプラインに従っている。
データ拡張段階では、フロンティアLLMは、キュレートされたオープンソースデータから医学的に可塑性合成ヴィグネットを生成し、多様なバランスの取れた質問回答データセットを生成する。
微調整の段階では、データセット上にオープンソースのファンデーションモデルを微調整し、診断、パーソナライズされた治療レコメンデーション、共感的心理的サポートを提供する。
推測および専門家評価段階において、臨床および心理学の専門家は、データセットを反復的に豊かにする、正確性、適切性、共感を評価する。
実験の結果、LSM4Sweatはベースラインを上回り、ハイパーヒドロシスのための最初のオープンソースのLCMフレームワークを提供し、同様のデータと信頼性の課題を持つ他のまれな疾患に対して、一般化可能なアプローチを提供する。
関連論文リスト
- Semi-supervised Clustering Through Representation Learning of Large-scale EHR Data [5.591260685112265]
SCOREは、患者埋め込みを通じて多領域の疾患プロファイルをキャプチャする半教師付き表現学習フレームワークである。
大規模データの計算課題に対処するため、ハイブリッド期待最大化(EM)とガウス変分近似(GVA)アルゴリズムを導入している。
分析の結果,ラベル付きデータの導入により精度が向上し,ラベル不足に対する感度が低下することがわかった。
論文 参考訳(メタデータ) (2025-05-27T05:20:17Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - FedCVD: The First Real-World Federated Learning Benchmark on Cardiovascular Disease Data [52.55123685248105]
心臓血管疾患(CVD)は、現在世界でも主要な死因であり、早期診断と治療の要点を浮き彫りにしている。
機械学習(ML)手法はCVDの早期診断に役立つが、その性能は高品質なデータへのアクセスに依存している。
本稿では、FedCVDという心臓血管疾患検出のための、世界初の実世界のFLベンチマークを示す。
論文 参考訳(メタデータ) (2024-10-28T02:24:01Z) - Detecting the Clinical Features of Difficult-to-Treat Depression using
Synthetic Data from Large Language Models [0.20971479389679337]
我々は,日常的に収集された物語(自由テキスト)電子健康記録データを問うことができるLarge Language Model(LLM)ベースのツールの開発を目指している。
LLM生成合成データ(GPT3.5)と非最大抑圧(NMS)アルゴリズムを用いてBERTに基づくスパン抽出モデルを訓練する。
以上の結果から,20因子のセットによる臨床データによる総合成績 (0.70 F1) と重要なDTDのサブセットにおける高いパフォーマンス (0.85 F1 と 0.95 の精度) が得られた。
論文 参考訳(メタデータ) (2024-02-12T13:34:33Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Distilling Large Language Models for Matching Patients to Clinical
Trials [3.4068841624198942]
近年の大規模言語モデル(LLMs)の成功は、医療分野における彼らの採用の道を開いた。
本研究は,患者と臨床の整合性に対するプロプライエタリ (GPT-3.5, GPT-4) とオープンソース LLM (LLAMA 7B, 13B, 70B) の併用性について,最初の系統的検討を行った。
この制限された合成データセットを微調整したオープンソースのLLMは、プロプライエタリなデータセットと同等の性能を示した。
論文 参考訳(メタデータ) (2023-12-15T17:11:07Z) - Leveraging Unlabelled Data in Multiple-Instance Learning Problems for
Improved Detection of Parkinsonian Tremor in Free-Living Conditions [80.88681952022479]
本稿では,半教師付き学習とマルチスタンス学習を組み合わせた新しい手法を提案する。
本研究は,454被験者の非競合データを活用することにより,物体ごとの震動検出において大きな性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-04-29T12:25:10Z) - Predicting multiple sclerosis disease severity with multimodal deep
neural networks [10.599189568556508]
患者のMS病重症度を予測するための多モード深層学習フレームワークを構築するために,構造化ERHデータ,ニューロイメージングデータ,臨床ノートを活用するパイロット取り組みについて述べる。
提案したパイプラインは、単一モーダルデータを用いたモデルと比較して、受信者動作特性曲線(AUROC)の下での面積の最大25%増加を示す。
論文 参考訳(メタデータ) (2023-04-08T16:23:18Z) - Supervised multi-specialist topic model with applications on large-scale
electronic health record data [3.322262654060203]
本研究では,MixEHR-Sを,EHRデータから専門分野別トピックを共同推定する。
効率的な推論のために,閉形式崩壊変分推論アルゴリズムを開発した。
MixEHR-Sは3つの応用において、最も予測可能な潜在トピックの中で臨床的に有意義な潜在トピックを授与した。
論文 参考訳(メタデータ) (2021-05-04T01:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。