論文の概要: Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare
- arxiv url: http://arxiv.org/abs/2309.10424v1
- Date: Tue, 19 Sep 2023 08:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:33:49.514296
- Title: Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare
- Title(参考訳): 医療における人工知能患者に対するハームのリスク軽減のための機能要件
- Authors: Juan M. Garc\'ia-G\'omez, Vicent Blanes-Selva, Jos\'e Carlos de
Bartolom\'e Cenzano, Jaime Cebolla-Cornejo and Ascensi\'on
Do\~nate-Mart\'inez
- Abstract要約: 本研究は、医療目的に関連するリスクを軽減するために、AIシステムが実装可能な14の機能要件を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Directorate General for Parliamentary Research Services of the European
Parliament has prepared a report to the Members of the European Parliament
where they enumerate seven main risks of Artificial Intelligence (AI) in
medicine and healthcare: patient harm due to AI errors, misuse of medical AI
tools, bias in AI and the perpetuation of existing inequities, lack of
transparency, privacy and security issues, gaps in accountability, and
obstacles in implementation.
In this study, we propose fourteen functional requirements that AI systems
may implement to reduce the risks associated with their medical purpose: AI
passport, User management, Regulation check, Academic use only disclaimer, data
quality assessment, Clinicians double check, Continuous performance evaluation,
Audit trail, Continuous usability test, Review of retrospective/simulated
cases, Bias check, eXplainable AI, Encryption and use of field-tested
libraries, and Semantic interoperability.
Our intention here is to provide specific high-level specifications of
technical solutions to ensure continuous good performance and use of AI systems
to benefit patients in compliance with the future EU regulatory framework.
- Abstract(参考訳): 欧州議会の議会調査サービス長官は欧州議会に報告書を作成し、医療と医療における人工知能(AI)の主なリスク7つを列挙した。AIエラーによる患者被害、医療AIツールの誤用、AIのバイアス、既存の不平等の永続性、透明性の欠如、プライバシーとセキュリティの問題、説明責任の欠如、実装上の障害である。
本稿では,AIシステムが医療目的に関連するリスクを軽減するために実施する機能要件として,AIパスポート,ユーザ管理,レギュレーションチェック,アカデミック使用のみの廃止,データ品質評価,臨床医のダブルチェック,継続的パフォーマンス評価,監査トレイル,継続的ユーザビリティテスト,レトロスペクティブ/シミュレーションケースのレビュー,バイアスチェック,eXplainable AI,暗号化とフィールドテストライブラリの使用,セマンティック相互運用性を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
関連論文リスト
- Safety challenges of AI in medicine [23.817939398729955]
レビューでは、医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討している。
試験は、多様な集団におけるパフォーマンス、一貫性のない運用安定性、効果的なモデルチューニングのための高品質なデータの必要性、モデルの開発とデプロイメントにおけるデータ漏洩のリスクを低減した。
本稿の第2部では、医学的文脈において、大規模言語モデル(LLM)に特有の安全性の問題について論じる。
論文 参考訳(メタデータ) (2024-09-11T13:47:47Z) - The doctor will polygraph you now: ethical concerns with AI for fact-checking patients [0.0]
患者報告データから合理的に理解可能な社会的行動を予測するために,臨床人工知能(AI)手法が提案されている。
これにより、健康データの使用方法に対する敬意、プライバシ、患者の意識/コントロールに関する倫理的な懸念が高まる。
論文 参考訳(メタデータ) (2024-08-15T02:55:30Z) - AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - TrialBench: Multi-Modal Artificial Intelligence-Ready Clinical Trial Datasets [57.067409211231244]
本稿では,マルチモーダルデータ(例えば,薬物分子,疾患コード,テキスト,分類・数値的特徴)と臨床治験設計における8つの重要な予測課題をカバーするAIreadyデータセットを精巧にキュレートした。
データセットのユーザビリティと信頼性を確保するため、各タスクに基本的な検証方法を提供する。
このようなオープンアクセスデータセットが利用可能になることは、臨床試験設計のための高度なAIアプローチの開発を促進することを期待する。
論文 参考訳(メタデータ) (2024-06-30T09:13:10Z) - Applications of Generative AI in Healthcare: algorithmic, ethical, legal and societal considerations [0.0]
生成AIは、医療画像とテキスト分析を急速に変換している。
本稿では,正確性,インフォームドコンセント,データプライバシ,アルゴリズム制限の問題について検討する。
我々は、医療における生成AIの倫理的かつ責任ある実装のロードマップを策定することを目指している。
論文 参考訳(メタデータ) (2024-06-15T13:28:07Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。