論文の概要: An AI Implementation Science Study to Improve Trustworthy Data in a Large Healthcare System
- arxiv url: http://arxiv.org/abs/2512.03098v2
- Date: Fri, 05 Dec 2025 05:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.712026
- Title: An AI Implementation Science Study to Improve Trustworthy Data in a Large Healthcare System
- Title(参考訳): 大規模医療システムにおける信頼に値するデータ改善のためのAI実践科学研究
- Authors: Benoit L. Marteau, Andrew Hornback, Shaun Q. Tan, Christian Lowson, Jason Woloff, May D. Wang,
- Abstract要約: 本研究では,大規模多施設小児科システムであるSingers Childrens (SCs) におけるAI導入事例について述べる。
我々は,Pythonベースのデータ品質評価ツールをSCsインフラストラクチャと互換性を持ち,OHDsiのR/Javaベースのデータ品質ダッシュボードを拡張した。
また,FHIR標準を用いた顎顔面マイクロソミー(CFM)の体系的およびケース特異的AI実装戦略の比較を行った。
- 参考スコア(独自算出の注目度): 1.6881002551798014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of Artificial Intelligence (AI) in healthcare has sparked interest in Trustworthy AI and AI Implementation Science, both of which are essential for accelerating clinical adoption. However, strict regulations, gaps between research and clinical settings, and challenges in evaluating AI systems continue to hinder real-world implementation. This study presents an AI implementation case study within Shriners Childrens (SC), a large multisite pediatric system, showcasing the modernization of SCs Research Data Warehouse (RDW) to OMOP CDM v5.4 within a secure Microsoft Fabric environment. We introduce a Python-based data quality assessment tool compatible with SCs infrastructure, extending OHDsi's R/Java-based Data Quality Dashboard (DQD) and integrating Trustworthy AI principles using the METRIC framework. This extension enhances data quality evaluation by addressing informative missingness, redundancy, timeliness, and distributional consistency. We also compare systematic and case-specific AI implementation strategies for Craniofacial Microsomia (CFM) using the FHIR standard. Our contributions include a real-world evaluation of AI implementations, integration of Trustworthy AI principles into data quality assessment, and insights into hybrid implementation strategies that blend systematic infrastructure with use-case-driven approaches to advance AI in healthcare.
- Abstract(参考訳): 医療における人工知能(AI)の急速な成長は、信頼できるAIとAI実装科学への関心を喚起した。
しかし、厳格な規制、研究と臨床設定のギャップ、AIシステム評価の課題は、現実の実装を妨げ続けている。
本研究は,Microsoft Fabric 環境における SCs Research Data Warehouse (RDW) から OMOP CDM v5.4 への近代化を実証した大規模多施設小児科システムである Shriners Childrens (SC) におけるAI実装事例研究である。
我々は、Pythonベースのデータ品質評価ツールをSCsインフラストラクチャと互換性があり、OHDsiのR/Javaベースのデータ品質ダッシュボード(DQD)を拡張し、METRICフレームワークを使用して信頼できるAI原則を統合する。
この拡張は、情報不足、冗長性、タイムライン、分散一貫性に対処することで、データ品質の評価を強化する。
また,FHIR標準を用いた顎顔面マイクロソミー(CFM)の体系的およびケース特異的AI実装戦略の比較を行った。
私たちのコントリビューションには、AI実装の現実的な評価、データ品質評価へのTrustworthy AI原則の統合、医療におけるAIの進歩のためのユースケース駆動アプローチと体系的なインフラストラクチャを融合するハイブリッド実装戦略に関する洞察などが含まれています。
関連論文リスト
- Federated Agentic AI for Wireless Networks: Fundamentals, Approaches, and Applications [60.721304295812445]
フェデレートラーニング(FL)はエージェントAIの全体的なループを改善する可能性がある。
まず、エージェントAIとメインストリームのFLタイプの基礎を要約し、各FLタイプがエージェントAIのループの特定のコンポーネントを強化する方法について説明する。
低高度無線ネットワークにおけるエージェントAIの動作決定性能を向上させるためにFRLを用いたケーススタディを行う。
論文 参考訳(メタデータ) (2026-03-02T11:26:56Z) - Let the Barbarians In: How AI Can Accelerate Systems Performance Research [80.43506848683633]
我々は、この繰り返しサイクルを、AI駆動システム研究の生成、評価、洗練のサイクルと呼ぶ。
我々はADRSが生成するソリューションが人間の最先端の設計に適合し、さらに優れることを示した。
論文 参考訳(メタデータ) (2025-12-16T18:51:23Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - What is Implementation Science; and Why It Matters for Bridging the Artificial Intelligence Innovation-to-Application Gap in Medical Imaging [0.8969078296493108]
実装科学(IS)は、AI開発と実世界の臨床画像利用のギャップを埋める枠組みを提供するかもしれない。
医療画像(MI)におけるAI導入に特有な課題について概説する。
本研究は,ハイブリッドな研究デザインを強調し,有効性研究と実装研究の相補的な役割を強調した。
論文 参考訳(メタデータ) (2025-10-14T21:50:31Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - VirtualXAI: A User-Centric Framework for Explainability Assessment Leveraging GPT-Generated Personas [0.07499722271664146]
eXplainable AI(XAI)の需要が増加し、AIモデルの解釈可能性、透明性、信頼性が向上した。
仮想ペルソナによる定量的ベンチマークと質的ユーザアセスメントを統合したフレームワークを提案する。
これにより、推定されたXAIスコアが得られ、与えられたシナリオに対して最適なAIモデルとXAIメソッドの両方にカスタマイズされたレコメンデーションが提供される。
論文 参考訳(メタデータ) (2025-03-06T09:44:18Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - AI Benchmarks and Datasets for LLM Evaluation [0.46960837342692324]
EU AI Actは、2024年3月13日に欧州議会が提出したEUAIActを引用し、AIシステムの開発、配備、使用に関するEU全体の最初の包括的な要件を定めている。
AIシステムによって引き起こされる技術的課題に効果的に対処するために、この方法論を実用的なベンチマークで強化する必要性を強調している。
私たちは、AIベンチマークの収集と分類を目的とした、AI Safety Bulgariaイニシアチブ(citeAI_Safety_Bulgaria)の一部として、プロジェクトをローンチした。
論文 参考訳(メタデータ) (2024-12-02T00:38:57Z) - Systematic Literature Review of AI-enabled Spectrum Management in 6G and Future Networks [29.38890315823053]
AI対応のSpectrum Managementの進歩の強化にはギャップがあります。
従来のスペクトル管理手法は、ダイナミックで複雑な要求のため、6Gでは不十分である。
発見は、重要なAISMシステムにおける未探索のAI利用などの課題を明らかにする。
論文 参考訳(メタデータ) (2024-06-12T11:31:42Z) - MedPerf: Open Benchmarking Platform for Medical Artificial Intelligence
using Federated Evaluation [110.31526448744096]
この可能性を解き明かすには、大規模な異種データに対して医療AIモデルの性能を測定する体系的な方法が必要である、と私たちは主張する。
MedPerfは、医療分野で機械学習をベンチマークするためのオープンフレームワークです。
論文 参考訳(メタデータ) (2021-09-29T18:09:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。