論文の概要: Not someone, but something: Rethinking trust in the age of medical AI
- arxiv url: http://arxiv.org/abs/2504.05331v1
- Date: Fri, 04 Apr 2025 14:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:31:43.167324
- Title: Not someone, but something: Rethinking trust in the age of medical AI
- Title(参考訳): 人間ではなく何か:医療AI時代の信頼を再考する
- Authors: Jan Beger,
- Abstract要約: 人工知能(AI)が医療に組み込まれるにつれ、医療の意思決定に対する信頼は急速に変化しつつある。
この意見書は、AIへの信頼は人間から機械への単純な移行ではない、と論じている。
哲学、生命倫理、システムデザインなどから、人間の信頼と機械の信頼性の主な違いを探求する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As artificial intelligence (AI) becomes embedded in healthcare, trust in medical decision-making is changing fast. This opinion paper argues that trust in AI isn't a simple transfer from humans to machines -- it's a dynamic, evolving relationship that must be built and maintained. Rather than debating whether AI belongs in medicine, this paper asks: what kind of trust must AI earn, and how? Drawing from philosophy, bioethics, and system design, it explores the key differences between human trust and machine reliability -- emphasizing transparency, accountability, and alignment with the values of care. It argues that trust in AI shouldn't rely on mimicking empathy or intuition, but on thoughtful design, responsible deployment, and clear moral responsibility. The goal is a balanced view -- one that avoids blind optimism and reflexive fear. Trust in AI must be treated not as a given, but as something to be earned over time.
- Abstract(参考訳): 人工知能(AI)が医療に組み込まれるにつれ、医療の意思決定に対する信頼は急速に変化しつつある。
この意見書は、AIの信頼は人間から機械への単純な移行ではなく、構築され、維持されなければならないダイナミックで進化している関係である、と論じている。この論文は、AIが医学に属しているかどうかを議論するよりむしろ、「AIがどんな信頼を得るべきなのか、どのようにして?哲学、生物倫理、システムデザインなどから、人間の信頼とマシン信頼性の主な違いを探求し、透明性、説明責任、ケアの価値との整合を強調する。
AIに対する信頼は共感や直観を模倣することではなく、思慮深い設計、責任あるデプロイメント、明確な道徳的責任に依存するべきだ、と氏は主張する。
目標はバランスの取れた視点であり、盲目の楽観主義や反射的な恐怖を避けることだ。
AIに対する信頼は、与えられたものとしてではなく、時間の経過とともに得られるものとして扱われなければならない。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Beyond Bias and Compliance: Towards Individual Agency and Plurality of
Ethics in AI [0.0]
データをラベル付けする方法は、AIの振る舞いに不可欠な役割を担っている、と私たちは主張する。
本稿では,複数の値と個々人の表現の自由を許容する代替経路を提案する。
論文 参考訳(メタデータ) (2023-02-23T16:33:40Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Could regulating the creators deliver trustworthy AI? [2.588973722689844]
AIは広く普及しており、私たちの知識なしに日々のテクノロジー、デバイス、サービスにデプロイされることが多い。
恐怖は、信頼できるAIの源を指し示すことができないことによって複雑化している。
信頼できるAIは、関連する法律に準拠するものだと考える人もいる。
倫理や基準に従う必要性を指摘する者もいる。
論文 参考訳(メタデータ) (2020-06-26T01:32:53Z) - Trustworthy AI [4.670305538969914]
信頼できるAIは、信頼できるコンピューティングとフォーマルな方法の両方に重点を置いている。
信頼できるコンピューティングの数十年の進歩にインスパイアされた私たちは、信頼できるプロパティがAIシステムに求めるものを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。