論文の概要: HealthProcessAI: A Technical Framework and Proof-of-Concept for LLM-Enhanced Healthcare Process Mining
- arxiv url: http://arxiv.org/abs/2508.21540v1
- Date: Fri, 29 Aug 2025 11:53:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.025483
- Title: HealthProcessAI: A Technical Framework and Proof-of-Concept for LLM-Enhanced Healthcare Process Mining
- Title(参考訳): HealthProcessAI: LLM強化医療プロセスマイニングの技術的枠組みと概念実証
- Authors: Eduardo Illueca-Fernandez, Kaile Chen, Fernando Seoane, Farhad Abtahi,
- Abstract要約: HealthProcessAIは、医療および疫学におけるプロセスマイニングのアプリケーションを簡単にするためのGenAIフレームワークである。
不慣れな問題に対処し、アクセシビリティを向上させるため、このフレームワークは複数の大規模言語モデル(LLM)を統合し、プロセスマップの自動解釈とレポート生成を行う。
- 参考スコア(独自算出の注目度): 37.929478174512354
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Process mining has emerged as a powerful analytical technique for understanding complex healthcare workflows. However, its application faces significant barriers, including technical complexity, a lack of standardized approaches, and limited access to practical training resources. We introduce HealthProcessAI, a GenAI framework designed to simplify process mining applications in healthcare and epidemiology by providing a comprehensive wrapper around existing Python (PM4PY) and R (bupaR) libraries. To address unfamiliarity and improve accessibility, the framework integrates multiple Large Language Models (LLMs) for automated process map interpretation and report generation, helping translate technical analyses into outputs that diverse users can readily understand. We validated the framework using sepsis progression data as a proof-of-concept example and compared the outputs of five state-of-the-art LLM models through the OpenRouter platform. To test its functionality, the framework successfully processed sepsis data across four proof-of-concept scenarios, demonstrating robust technical performance and its capability to generate reports through automated LLM analysis. LLM evaluation using five independent LLMs as automated evaluators revealed distinct model strengths: Claude Sonnet-4 and Gemini 2.5-Pro achieved the highest consistency scores (3.79/4.0 and 3.65/4.0) when evaluated by automated LLM assessors. By integrating multiple Large Language Models (LLMs) for automated interpretation and report generation, the framework addresses widespread unfamiliarity with process mining outputs, making them more accessible to clinicians, data scientists, and researchers. This structured analytics and AI-driven interpretation combination represents a novel methodological advance in translating complex process mining results into potentially actionable insights for healthcare applications.
- Abstract(参考訳): プロセスマイニングは、複雑な医療ワークフローを理解するための強力な分析技術として登場した。
しかし、そのアプリケーションは、技術的な複雑さ、標準化されたアプローチの欠如、実践的なトレーニングリソースへのアクセス制限など、大きな障壁に直面している。
我々は、既存のPython(PM4PY)ライブラリとR(bupaR)ライブラリを包括的にラップすることで、医療・疫学におけるプロセスマイニングアプリケーションを簡素化するGenAIフレームワークであるHealthProcessAIを紹介する。
使い慣れない問題に対処し、アクセシビリティを向上させるために、このフレームワークは複数の大規模言語モデル(LLM)を統合し、プロセスマップの解釈とレポート生成を自動化する。
提案手法は,概念実証の例としてセプシス・プログレクションデータを用いて検証し,OpenRouter プラットフォームによる5つの最先端 LLM モデルの出力を比較した。
その機能をテストするために、このフレームワークは4つの概念実証シナリオのセシスデータをうまく処理し、堅牢な技術的パフォーマンスと、自動LLM分析によるレポート生成能力を実証した。
クロード・ソネット-4とジェミニ・2.5-Proは自動LLM評価器で評価すると最高一貫性(3.79/4.0と3.65/4.0)を達成した。
複数の大規模言語モデル(LLM)を自動解釈とレポート生成のために統合することにより、このフレームワークはプロセスマイニングのアウトプットに広く馴染みのない問題に対処し、臨床医、データサイエンティスト、研究者にとってよりアクセスしやすいものにする。
この構造化分析とAI駆動の解釈の組み合わせは、複雑なプロセスマイニングの結果を医療応用のための潜在的に実用的な洞察に翻訳する新しい方法論の進歩を表している。
関連論文リスト
- Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - Analise Semantica Automatizada com LLM e RAG para Bulas Farmaceuticas [0.0]
本研究では,大規模言語モデル(LLM)と組み合わせたRAGアーキテクチャを用いて,PDF形式の文書解析を自動化する。
本提案では, 埋め込み, 意味データ抽出, 文脈化自然言語応答の生成によるベクトル探索手法を統合する。
論文 参考訳(メタデータ) (2025-07-07T17:48:15Z) - AI-Driven Scholarly Peer Review via Persistent Workflow Prompting, Meta-Prompting, and Meta-Reasoning [0.0]
本稿では,PWP(Persistent Prompting)について紹介する。
本稿では,実験化学原稿の批判的分析のための概念実証PWPプロンプトを提案する。
我々は,このPWPプロンプトを,専門家レビューの体系化を目的としたメタプロンプト技術とメタ推論の反復的適用により開発する。
論文 参考訳(メタデータ) (2025-05-06T09:06:18Z) - Zero-Shot Document-Level Biomedical Relation Extraction via Scenario-based Prompt Design in Two-Stage with LLM [7.808231572590279]
ハードウェアと労働コストの低い汎用大言語モデル (LLM) を用いて, 注釈のない完全文書から同じ結果を得るための新しい手法を提案する。
我々のアプローチは、名前付きエンティティ認識(NER)と関係抽出(RE)の2つの主要な段階を組み合わせる。
本稿では,プロンプトの有効性を高めるために,5部テンプレート構造とシナリオに基づくプロンプト設計の原理を提案する。
論文 参考訳(メタデータ) (2025-05-02T07:33:20Z) - Leveraging Large Language Models for Enhanced Process Model Comprehension [33.803742664323856]
ビジネスプロセスマネジメント(BPM)では、効果的にプロセスモデルを理解することが重要であるが、重大な課題を生じさせる。
本稿では,Large Language Models(LLM)の高度な機能を活用し,複雑なプロセスモデルの解釈可能性を高める新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-08T13:12:46Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。