論文の概要: Leveraging Generative AI to Enhance Synthea Module Development
- arxiv url: http://arxiv.org/abs/2507.21123v1
- Date: Fri, 18 Jul 2025 17:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.900845
- Title: Leveraging Generative AI to Enhance Synthea Module Development
- Title(参考訳): 生成AIを活用してSyntheaモジュール開発を促進する
- Authors: Mark A. Kramer, Aanchal Mathur, Caroline E. Adams, Jason A. Walonoski,
- Abstract要約: 本稿では、オープンソースの合成健康データ生成装置であるSyntheaの新しい病気モジュールの開発を支援するために、大規模言語モデル(LLM)の使用について検討する。
LLMをモジュール開発プロセスに組み込むことで、開発時間を短縮し、必要な専門知識を削減し、モデルの多様性を拡大し、合成患者データの全体的な品質を向上させることができる。
- 参考スコア(独自算出の注目度): 0.044998333629984864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the use of large language models (LLMs) to assist in the development of new disease modules for Synthea, an open-source synthetic health data generator. Incorporating LLMs into the module development process has the potential to reduce development time, reduce required expertise, expand model diversity, and improve the overall quality of synthetic patient data. We demonstrate four ways that LLMs can support Synthea module creation: generating a disease profile, generating a disease module from a disease profile, evaluating an existing Synthea module, and refining an existing module. We introduce the concept of progressive refinement, which involves iteratively evaluating the LLM-generated module by checking its syntactic correctness and clinical accuracy, and then using that information to modify the module. While the use of LLMs in this context shows promise, we also acknowledge the challenges and limitations, such as the need for human oversight, the importance of rigorous testing and validation, and the potential for inaccuracies in LLM-generated content. The paper concludes with recommendations for future research and development to fully realize the potential of LLM-aided synthetic data creation.
- Abstract(参考訳): 本稿では、オープンソースの合成健康データ生成装置であるSyntheaの新しい病気モジュールの開発を支援するために、大規模言語モデル(LLM)の使用について検討する。
LLMをモジュール開発プロセスに組み込むことは、開発時間を短縮し、必要な専門知識を削減し、モデルの多様性を拡大し、合成患者データの全体的な品質を向上させる可能性がある。
疾患プロファイルの生成,疾患プロファイルからの疾患モジュールの生成,既存のSyntheaモジュールの評価,既存モジュールの精査という,LLMがSyntheaモジュール生成をサポートする4つの方法を示す。
本稿では,LLM生成モジュールの構文的正しさと臨床的精度を反復的に評価し,その情報を用いてモジュールの修正を行うプログレッシブリファインメントの概念を紹介する。
この文脈でのLLMの使用は有望であるが、人間の監視の必要性、厳密なテストと検証の重要性、LLM生成コンテンツにおける不正確性の可能性など、課題や限界も認識している。
本稿は,LLMを用いた合成データ作成の可能性を完全に実現するために,今後の研究・開発を推奨する。
関連論文リスト
- ChemActor: Enhancing Automated Extraction of Chemical Synthesis Actions with LLM-Generated Data [53.78763789036172]
ケミカルエグゼキュータとして完全微調整された大規模言語モデル(LLM)であるChemActorを紹介し,非構造化実験手順と構造化動作シーケンスを変換する。
このフレームワークは、分散分散に基づくデータ選択モジュールと汎用LLMを統合し、単一の分子入力からマシン実行可能なアクションを生成する。
反応記述(R2D)と記述記述処理(D2A)のタスクの実験により、ChemActorは最先端のパフォーマンスを達成し、ベースラインモデルよりも10%高い性能を示した。
論文 参考訳(メタデータ) (2025-06-30T05:11:19Z) - Modular Machine Learning: An Indispensable Path towards New-Generation Large Language Models [45.05285463251872]
我々は,新世代の大規模言語モデル(LLM)に不可欠なアプローチとして,新しい学習パラダイム - Modular Machine Learning (MML) を導入する。
MMLは、LLMの複雑な構造を、モジュラー表現、モジュラーモデル、モジュラー推論の3つの相互依存コンポーネントに分解する。
本稿では,非絡み合い表現学習,ニューラルアーキテクチャ探索,ニューロシンボリック学習などの高度な技術を活用して,MLに基づくLLMの実現の可能性を示す。
論文 参考訳(メタデータ) (2025-04-28T17:42:02Z) - LLMs4Synthesis: Leveraging Large Language Models for Scientific Synthesis [0.16385815610837165]
本稿では,LLMs4Synthesisフレームワークについて紹介する。
オープンソースとプロプライエタリなLLMの両方を活用しながら、迅速で一貫性があり、文脈的にリッチな科学的洞察の統合の必要性に対処する。
論文 参考訳(メタデータ) (2024-09-27T15:04:39Z) - Configurable Foundation Models: Building LLMs from a Modular Perspective [115.63847606634268]
LLMを多数の機能モジュールに分解する傾向が高まり、複雑なタスクに取り組むためにモジュールの一部とモジュールの動的アセンブリを推論することができる。
各機能モジュールを表すブロックという用語を造語し、モジュール化された構造をカスタマイズ可能な基礎モデルとして定義する。
検索とルーティング,マージ,更新,成長という,レンガ指向の4つの操作を提示する。
FFN層はニューロンの機能的特殊化と機能的ニューロン分割を伴うモジュラーパターンに従うことが判明した。
論文 参考訳(メタデータ) (2024-09-04T17:01:02Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - LLMs-in-the-loop Part-1: Expert Small AI Models for Bio-Medical Text Translation [0.0]
本研究では,医療用テキストに最適化された教師ありニューラルマシン翻訳モデルを開発するために,新しい"LLMs-in-the-loop"アプローチを提案する。
6つの言語での独自の平行コーパスは、科学論文、人工的に生成された臨床文書、医療文書から編纂された。
MarianMTベースのモデルは、Google Translate、DeepL、GPT-4-Turboより優れている。
論文 参考訳(メタデータ) (2024-07-16T19:32:23Z) - Xiwu: A Basis Flexible and Learnable LLM for High Energy Physics [8.483323041108774]
大規模言語モデル(LLM)は、急激な更新と変更の期間を経ている。
モデル自体を前進させながら、ユニークなドメイン知識を取得することは困難です。
Xiwuという名前の高度な大規模言語モデルシステムが開発され、最も先進的な基礎モデルの切り替えが可能になった。
論文 参考訳(メタデータ) (2024-04-08T07:37:31Z) - Large Language Models for Data Annotation and Synthesis: A Survey [49.8318827245266]
本調査は,データアノテーションと合成のための大規模言語モデルの有用性に焦点を当てる。
LLMがアノテートできるデータタイプの詳細な分類、LLM生成アノテーションを利用したモデルの学習戦略のレビュー、データアノテーションと合成にLLMを使用する際の主な課題と制限に関する詳細な議論を含む。
論文 参考訳(メタデータ) (2024-02-21T00:44:04Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。