論文の概要: Limits of trust in medical AI
- arxiv url: http://arxiv.org/abs/2503.16692v1
- Date: Thu, 20 Mar 2025 20:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:58:59.703134
- Title: Limits of trust in medical AI
- Title(参考訳): 医療AIにおける信頼の限界
- Authors: Joshua Hatherley,
- Abstract要約: AIシステムは信頼でき、信頼性があり、信頼できない。
患者は医療的意思決定のためにAIシステムに頼る必要があるため、臨床実践における関係性への信頼の欠如を生み出す可能性がある。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License:
- Abstract: Artificial intelligence (AI) is expected to revolutionize the practice of medicine. Recent advancements in the field of deep learning have demonstrated success in a variety of clinical tasks: detecting diabetic retinopathy from images, predicting hospital readmissions, aiding in the discovery of new drugs, etc. AI's progress in medicine, however, has led to concerns regarding the potential effects of this technology upon relationships of trust in clinical practice. In this paper, I will argue that there is merit to these concerns, since AI systems can be relied upon, and are capable of reliability, but cannot be trusted, and are not capable of trustworthiness. Insofar as patients are required to rely upon AI systems for their medical decision-making, there is potential for this to produce a deficit of trust in relationships in clinical practice.
- Abstract(参考訳): 人工知能(AI)は医学の実践に革命をもたらすことが期待されている。
近年のディープラーニング分野の進歩は、画像から糖尿病網膜症を検出すること、病院の入院を予測すること、新しい薬物の発見を支援することなど、様々な臨床タスクで成功している。
しかし、医学におけるAIの進歩は、この技術が臨床実践における信頼関係に与える影響について懸念を招いている。
本稿では、AIシステムは信頼でき、信頼性があり、信頼できないため、信頼できないため、これらの懸念にはメリットがあると論じる。
患者は医療的意思決定のためにAIシステムに頼る必要があるため、臨床実践における関係性への信頼の欠如を生み出す可能性がある。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Contrasting Attitudes Towards Current and Future AI Applications for Computerised Interpretation of ECG: A Clinical Stakeholder Interview Study [2.570550251482137]
英国で臨床医に一連のインタビューを行った。
我々の研究は、AI、特に未来の「人間のような」コンピューティングの可能性を探る。
論文 参考訳(メタデータ) (2024-10-22T10:31:23Z) - The Importance of Justified Patient Trust in unlocking AI's potential in mental healthcare [0.0]
信頼がなければ、患者はAIシステムに関わることをためらうかもしれない。
本稿では,AIシステムにおいて,直接的ユーザであるメンタルヘルス患者が持つべき信頼に焦点をあてる。
論文 参考訳(メタデータ) (2024-10-14T07:50:10Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Leveraging Generative AI for Clinical Evidence Summarization Needs to Ensure Trustworthiness [47.51360338851017]
エビデンスベースの医療は、医療の意思決定と実践を最大限に活用することで、医療の質を向上させることを約束する。
様々な情報源から得ることができる医学的証拠の急速な成長は、明らかな情報の収集、評価、合成に挑戦する。
大規模言語モデルによって実証された、生成AIの最近の進歩は、困難な作業の促進を約束する。
論文 参考訳(メタデータ) (2023-11-19T03:29:45Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - Trust and Medical AI: The challenges we face and the expertise needed to
overcome them [15.07989177980542]
医療AIの失敗は、臨床結果や患者の経験に重大な影響を及ぼす可能性がある。
本稿では,医療AIにおける概念的,技術的,人道的課題について述べる。
医療用AI技術の開発、検証、運用を専門とする新たな専門家グループの教育と認定を基盤とするソリューションを提案する。
論文 参考訳(メタデータ) (2020-08-18T04:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。