論文の概要: Reinforcing Clinical Decision Support through Multi-Agent Systems and Ethical AI Governance
- arxiv url: http://arxiv.org/abs/2504.03699v3
- Date: Tue, 15 Apr 2025 05:26:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:09:02.296761
- Title: Reinforcing Clinical Decision Support through Multi-Agent Systems and Ethical AI Governance
- Title(参考訳): マルチエージェントシステムと倫理的AIガバナンスによる臨床意思決定支援の強化
- Authors: Ying-Jung Chen, Ahmad Albarqawi, Chi-Sheng Chen,
- Abstract要約: 実験結果, バイタルサイン, 臨床状況を分析するために, モジュラーエージェントを用いた新規エージェントシステムの設計を比較した。
我々は,eICUデータベースを用いて,実験室分析,バイタルのみのインタプリタ,文脈推論エージェントなどのエージェントシステムを実装した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advances in the data-driven medicine approach, which integrates ethically managed and explainable artificial intelligence into clinical decision support systems (CDSS), are critical to ensure reliable and effective patient care. This paper focuses on comparing novel agent system designs that use modular agents to analyze laboratory results, vital signs, and clinical context, and to predict and validate results. We implement our agent system with the eICU database, including running lab analysis, vitals-only interpreters, and contextual reasoners agents first, then sharing the memory into the integration agent, prediction agent, transparency agent, and a validation agent. Our results suggest that the multi-agent system (MAS) performed better than the single-agent system (SAS) with mortality prediction accuracy (59%, 56%) and the mean error for length of stay (LOS)(4.37 days, 5.82 days), respectively. However, the transparency score for the SAS (86.21) is slightly better than the transparency score for MAS (85.5). Finally, this study suggests that our agent-based framework not only improves process transparency and prediction accuracy but also strengthens trustworthy AI-assisted decision support in an intensive care setting.
- Abstract(参考訳): 倫理的に管理され、説明可能な人工知能を臨床意思決定支援システム(CDSS)に統合するデータ駆動医療のアプローチの最近の進歩は、信頼性と効果的な患者ケアを保証するために重要である。
本稿では, 実験結果, バイタルサイン, 臨床状況を分析し, 結果の予測と検証を行うために, モジュラーエージェントを用いた新規エージェントシステムの設計を比較した。
まず,実験室分析,バイタルのみのインタプリタ,文脈推論エージェントを含むエージェントシステムを実装し,そのメモリを統合エージェント,予測エージェント,透明性エージェント,検証エージェントに共有する。
以上の結果から,マルチエージェントシステム (MAS) は, 死亡予測精度 (59%, 56%) と滞在時間 (4.37日, 5.82日) の平均誤差 (4.37日, 5.82日) において, シングルエージェントシステム (SAS) よりも優れていたことが示唆された。
しかし、SAS (86.21) の透明性スコアは、MAS (85.5) の透明性スコアよりわずかに優れている。
最後に、本研究は、エージェントベースのフレームワークがプロセスの透明性と予測精度を改善するだけでなく、集中治療環境における信頼できるAI支援意思決定支援を強化することを示唆している。
関連論文リスト
- Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice through Interactive Sequential Benchmarking [58.25862290294702]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Detecting algorithmic bias in medical-AI models using trees [7.939586935057782]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Assessing the communication gap between AI models and healthcare
professionals: explainability, utility and trust in AI-driven clinical
decision-making [1.7809957179929814]
本稿では,臨床診断支援のための機械学習モデル(ML)の実用的評価フレームワークを提案する。
この研究は、MLの説明モデルにおいて、これらが臨床的文脈に実用的に埋め込まれているとき、よりニュアンスな役割を明らかにした。
論文 参考訳(メタデータ) (2022-04-11T11:59:04Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。