論文の概要: Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare
- arxiv url: http://arxiv.org/abs/2309.10424v1
- Date: Tue, 19 Sep 2023 08:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:33:49.514296
- Title: Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare
- Title(参考訳): 医療における人工知能患者に対するハームのリスク軽減のための機能要件
- Authors: Juan M. Garc\'ia-G\'omez, Vicent Blanes-Selva, Jos\'e Carlos de
Bartolom\'e Cenzano, Jaime Cebolla-Cornejo and Ascensi\'on
Do\~nate-Mart\'inez
- Abstract要約: 本研究は、医療目的に関連するリスクを軽減するために、AIシステムが実装可能な14の機能要件を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Directorate General for Parliamentary Research Services of the European
Parliament has prepared a report to the Members of the European Parliament
where they enumerate seven main risks of Artificial Intelligence (AI) in
medicine and healthcare: patient harm due to AI errors, misuse of medical AI
tools, bias in AI and the perpetuation of existing inequities, lack of
transparency, privacy and security issues, gaps in accountability, and
obstacles in implementation.
In this study, we propose fourteen functional requirements that AI systems
may implement to reduce the risks associated with their medical purpose: AI
passport, User management, Regulation check, Academic use only disclaimer, data
quality assessment, Clinicians double check, Continuous performance evaluation,
Audit trail, Continuous usability test, Review of retrospective/simulated
cases, Bias check, eXplainable AI, Encryption and use of field-tested
libraries, and Semantic interoperability.
Our intention here is to provide specific high-level specifications of
technical solutions to ensure continuous good performance and use of AI systems
to benefit patients in compliance with the future EU regulatory framework.
- Abstract(参考訳): 欧州議会の議会調査サービス長官は欧州議会に報告書を作成し、医療と医療における人工知能(AI)の主なリスク7つを列挙した。AIエラーによる患者被害、医療AIツールの誤用、AIのバイアス、既存の不平等の永続性、透明性の欠如、プライバシーとセキュリティの問題、説明責任の欠如、実装上の障害である。
本稿では,AIシステムが医療目的に関連するリスクを軽減するために実施する機能要件として,AIパスポート,ユーザ管理,レギュレーションチェック,アカデミック使用のみの廃止,データ品質評価,臨床医のダブルチェック,継続的パフォーマンス評価,監査トレイル,継続的ユーザビリティテスト,レトロスペクティブ/シミュレーションケースのレビュー,バイアスチェック,eXplainable AI,暗号化とフィールドテストライブラリの使用,セマンティック相互運用性を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
関連論文リスト
- Governing Through the Cloud: The Intermediary Role of Compute Providers
in AI Regulation [15.338083640341223]
計算プロバイダは、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と我々は主張する。
コンピューティングプロバイダは,4つの重要な能力を通じて,規制エコシステムにおいて重要な役割を果たすことができます。
論文 参考訳(メタデータ) (2024-03-13T13:08:16Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - Ensuring Trustworthy Medical Artificial Intelligence through Ethical and
Philosophical Principles [4.705984758887425]
AIベースのコンピュータ支援診断と治療ツールは、臨床レベルを合わせるか、あるいは臨床専門家を上回ることで、医療を民主化することができる。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
AIをヘルスケアに統合することは、バイアス、透明性、自律性、責任、説明責任など、いくつかの倫理的および哲学的な懸念を提起する。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - IAC: A Framework for Enabling Patient Agency in the Use of AI-Enabled
Healthcare [1.0878040851638]
IAC(Informing, Assessment, and Consent)は、医療環境におけるAI対応デジタル技術の導入に対する患者の反応を評価するためのフレームワークである。
このフレームワークは、医療実践者が医療におけるAIの使用について患者に通知する方法を導く3つの基本原則で構成されている。
本稿では, この枠組みを構成する原則を, 実践者と患者の関係を改善するガイドラインに翻訳し, 同時に, 医療におけるAIの利用に関する患者機関に翻訳することを提案する。
論文 参考訳(メタデータ) (2021-10-29T16:13:15Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Towards a framework for evaluating the safety, acceptability and
efficacy of AI systems for health: an initial synthesis [0.2936007114555107]
医療用AIシステムの安全性、受容性、有効性を評価するための最小限の枠組みを構築することを目指しています。
これを行うには、Scoopus、PubMed、Google Scholarで体系的な検索を行います。
その結果、医療用AIシステムの十分な評価を通じて、AIシステム開発者、政策立案者、規制当局を導くためのフレームワークです。
論文 参考訳(メタデータ) (2021-04-14T15:00:39Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。