論文の概要: IAC: A Framework for Enabling Patient Agency in the Use of AI-Enabled
Healthcare
- arxiv url: http://arxiv.org/abs/2111.04456v3
- Date: Sat, 14 Oct 2023 13:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:20:12.759882
- Title: IAC: A Framework for Enabling Patient Agency in the Use of AI-Enabled
Healthcare
- Title(参考訳): IAC:AIによる医療利用における患者機関支援の枠組み
- Authors: Chinasa T. Okolo, Michelle Gonz\'alez Amador
- Abstract要約: IAC(Informing, Assessment, and Consent)は、医療環境におけるAI対応デジタル技術の導入に対する患者の反応を評価するためのフレームワークである。
このフレームワークは、医療実践者が医療におけるAIの使用について患者に通知する方法を導く3つの基本原則で構成されている。
本稿では, この枠組みを構成する原則を, 実践者と患者の関係を改善するガイドラインに翻訳し, 同時に, 医療におけるAIの利用に関する患者機関に翻訳することを提案する。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In healthcare, the role of AI is continually evolving, and understanding the
challenges its introduction poses on relationships between healthcare providers
and patients will require a regulatory and behavioral approach that can provide
a guiding base for all users involved. In this paper, we present IAC
(Informing, Assessment, and Consent), a framework for evaluating patient
response to the introduction of AI-enabled digital technologies in healthcare
settings. We justify the need for IAC with a general introduction of the
challenges with and perceived relevance of AI in human-welfare-centered fields,
with an emphasis on the provision of healthcare. The framework is composed of
three core principles that guide how healthcare practitioners can inform
patients about the use of AI in their healthcare, how practitioners can assess
patients' acceptability and comfortability with the use of AI, and how patient
consent can be gained after this process. We propose that the principles
composing this framework can be translated into guidelines that improve
practitioner-patient relationships and, concurrently, patient agency regarding
the use of AI in healthcare while broadening the discourse on this topic.
- Abstract(参考訳): 医療において、aiの役割は継続的に進化し続けており、その導入が医療提供者と患者の関係に直面する課題を理解するには、関与するすべてのユーザーに指針となるような規制と行動のアプローチが必要である。
本稿では,ICC(Informing, Assessment, and Consent)を,医療環境におけるAI対応デジタル技術の導入に対する患者の反応を評価するためのフレームワークとして紹介する。
我々は、医療の提供に重点を置いた、人間中心の分野におけるAIの課題と認識に関する一般的な導入により、IACの必要性を正当化する。
このフレームワークは、医療従事者が医療におけるAIの使用についてどのように患者に知らせるか、実践者がAIの使用による患者の受容性と快適性をどのように評価するか、そしてこのプロセス後に患者の同意を得る方法についての3つの基本原則で構成されている。
本稿では、この枠組みを構成する原則を、実践者と患者との関係を改善するガイドラインに翻訳し、同時に、医療におけるAIの使用に関する患者機関に翻訳し、この話題に関する議論を広げることを提案する。
関連論文リスト
- Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - Intelligent Clinical Documentation: Harnessing Generative AI for Patient-Centric Clinical Note Generation [0.0]
本稿では,クリニカルドキュメンテーションプロセスの合理化のための生成AI(Artificial Intelligence)の可能性について検討する。
本稿では,自然言語処理 (NLP) と自動音声認識 (ASR) 技術を用いて患者と臨床の相互作用を転写するケーススタディを提案する。
この研究は、時間節約、ドキュメント品質の改善、患者中心のケアの改善など、このアプローチの利点を強調している。
論文 参考訳(メタデータ) (2024-05-28T16:43:41Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - The Design and Implementation of a National AI Platform for Public
Healthcare in Italy: Implications for Semantics and Interoperability [62.997667081978825]
イタリア国立衛生局は、その技術機関を通じて人工知能を採用している。
このような広大なプログラムには、知識領域の形式化に特別な注意が必要である。
AIが患者、開業医、健康システムに与える影響について疑問が投げかけられている。
論文 参考訳(メタデータ) (2023-04-24T08:00:02Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。