論文の概要: Before the Clinic: Transparent and Operable Design Principles for Healthcare AI
- arxiv url: http://arxiv.org/abs/2511.01902v1
- Date: Fri, 31 Oct 2025 04:05:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.575044
- Title: Before the Clinic: Transparent and Operable Design Principles for Healthcare AI
- Title(参考訳): クリニック前:医療AIのための透明で操作可能な設計原則
- Authors: Alexander Bakumenko, Aaron J. Masino, Janine Hoelscher,
- Abstract要約: 医療AIの先進的な技術的要件を運用するための基本設計原則を2つ提案する。
我々は、これらの原則を確立されたXAIフレームワークに根ざし、それらをドキュメント化された臨床ニーズにマッピングし、新たなガバナンス要件との整合性を実証します。
この前臨床プレイブックは、開発チームに対して実行可能なガイダンスを提供し、臨床評価への道を加速し、AI研究者、医療実践家、規制ステークホルダーを分かち合う共通語彙を確立する。
- 参考スコア(独自算出の注目度): 42.994619952353396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The translation of artificial intelligence (AI) systems into clinical practice requires bridging fundamental gaps between explainable AI theory, clinician expectations, and governance requirements. While conceptual frameworks define what constitutes explainable AI (XAI) and qualitative studies identify clinician needs, little practical guidance exists for development teams to prepare AI systems prior to clinical evaluation. We propose two foundational design principles, Transparent Design and Operable Design, that operationalize pre-clinical technical requirements for healthcare AI. Transparent Design encompasses interpretability and understandability artifacts that enable case-level reasoning and system traceability. Operable Design encompasses calibration, uncertainty, and robustness to ensure reliable, predictable system behavior under real-world conditions. We ground these principles in established XAI frameworks, map them to documented clinician needs, and demonstrate their alignment with emerging governance requirements. This pre-clinical playbook provides actionable guidance for development teams, accelerates the path to clinical evaluation, and establishes a shared vocabulary bridging AI researchers, healthcare practitioners, and regulatory stakeholders. By explicitly scoping what can be built and verified before clinical deployment, we aim to reduce friction in clinical AI translation while remaining cautious about what constitutes validated, deployed explainability.
- Abstract(参考訳): 人工知能(AI)システムの臨床実践への変換には、説明可能なAI理論、臨床医の期待、ガバナンス要件の基本的なギャップを埋める必要がある。
概念的フレームワークは、説明可能なAI(XAI)を構成するものを定義し、定性的な研究が臨床のニーズを特定する一方で、開発チームが臨床評価の前にAIシステムを作成するための実践的なガイダンスはほとんど存在しない。
医療AIの先進的な技術的要件を運用する2つの基本設計原則である透明性設計と操作設計を提案する。
Transparent Designは、ケースレベルの推論とシステムのトレーサビリティを可能にする、解釈可能性と理解可能性のアーティファクトを含んでいる。
Operable Designはキャリブレーション、不確実性、堅牢性を包含し、現実の環境下での信頼性と予測可能なシステム動作を保証する。
我々は、これらの原則を確立されたXAIフレームワークに根ざし、それらをドキュメント化された臨床ニーズにマッピングし、新たなガバナンス要件との整合性を実証します。
この前臨床プレイブックは、開発チームに対して実行可能なガイダンスを提供し、臨床評価への道を加速し、AI研究者、医療実践者、規制ステークホルダーを分かち合う共通語彙を確立する。
臨床展開前に何が構築され、検証可能かを明示的に Scoping することにより、臨床AI翻訳における摩擦を低減しつつ、検証された、デプロイされた説明可能性を構成するものについて慎重なままにすることを目指している。
関連論文リスト
- From Explainability to Action: A Generative Operational Framework for Integrating XAI in Clinical Mental Health Screening [0.3181700357675698]
本稿では,このギャップは翻訳問題であり,生成操作フレームワークを提案する。
このフレームワークは、様々なXAIツールから得られた生の技術的出力を取り込み、臨床ガイドラインでそれらを合成するように設計されている。
論文 参考訳(メタデータ) (2025-10-10T05:46:39Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Developer Insights into Designing AI-Based Computer Perception Tools [0.29792635122213634]
人工知能(AI)ベースのコンピュータ認識(CP)技術は、モバイルセンサーを使用して、臨床意思決定のための行動データや生理データを収集する。
本研究は,AIベースのCPツールの開発者に対する20回の詳細なインタビューから得られた知見を報告する。
論文 参考訳(メタデータ) (2025-08-29T16:01:02Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - A Design Framework for operationalizing Trustworthy Artificial Intelligence in Healthcare: Requirements, Tradeoffs and Challenges for its Clinical Adoption [6.7236795813629]
我々は、信頼できるAI原則を医療AIシステムに組み込む開発者を支援するための設計フレームワークを提案する。
私たちは、高頻度とアクティブなAIイノベーションの両方を特徴とする、心臓血管疾患に焦点を当てています。
論文 参考訳(メタデータ) (2025-04-27T09:57:35Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - A Tutorial on Clinical Speech AI Development: From Data Collection to Model Validation [19.367198670893778]
本稿では,臨床音声AIの堅牢な開発に必要な要素について概説する。
目的は、入力と出力がより解釈可能で臨床的に意味のある音声の側面にリンクするモデルの構築に関する包括的なガイダンスを提供することである。
論文 参考訳(メタデータ) (2024-10-29T00:58:15Z) - Beyond One-Time Validation: A Framework for Adaptive Validation of Prognostic and Diagnostic AI-based Medical Devices [55.319842359034546]
既存のアプローチは、これらのデバイスを実際にデプロイする際の複雑さに対処するのに不足することが多い。
提示されたフレームワークは、デプロイメント中に検証と微調整を繰り返すことの重要性を強調している。
現在の米国とEUの規制分野に位置づけられている。
論文 参考訳(メタデータ) (2024-09-07T11:13:52Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。