論文の概要: Humble Machines: Attending to the Underappreciated Costs of Misplaced
Distrust
- arxiv url: http://arxiv.org/abs/2208.01305v1
- Date: Tue, 2 Aug 2022 08:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:15:56.283413
- Title: Humble Machines: Attending to the Underappreciated Costs of Misplaced
Distrust
- Title(参考訳): 謙虚な機械:不信不信の過小評価の費用に出席する
- Authors: Bran Knowles, Jason D'Cruz, John T. Richards, Kush R. Varshney
- Abstract要約: 我々は、AIに対する公的な不信は、誤分類される可能性があるという確固たる懸念に起因していると主張している。
我々は、AIに対する公的な信頼を回復するためには、システムは「信頼を損なう」姿勢を具現化するように設計する必要があると提案する。
- 参考スコア(独自算出の注目度): 20.685627416074286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is curious that AI increasingly outperforms human decision makers, yet
much of the public distrusts AI to make decisions affecting their lives. In
this paper we explore a novel theory that may explain one reason for this. We
propose that public distrust of AI is a moral consequence of designing systems
that prioritize reduction of costs of false positives over less tangible costs
of false negatives. We show that such systems, which we characterize as
'distrustful', are more likely to miscategorize trustworthy individuals, with
cascading consequences to both those individuals and the overall human-AI trust
relationship. Ultimately, we argue that public distrust of AI stems from
well-founded concern about the potential of being miscategorized. We propose
that restoring public trust in AI will require that systems are designed to
embody a stance of 'humble trust', whereby the moral costs of the misplaced
distrust associated with false negatives is weighted appropriately during
development and use.
- Abstract(参考訳): AIがますます人間の意思決定者より優れているのは不思議だが、一般大衆はAIが彼らの生活に影響を及ぼす決定を下すことに不信感を抱いている。
本稿では,その一つの理由を説明する新しい理論について考察する。
我々は、AIに対する公的な不信は、偽陰性の少ないコストよりも偽陽性のコストの削減を優先するシステムを設計する道徳的な結果であると提案する。
私たちが「不信」と特徴づけるこのようなシステムは、信頼に値する個人を誤分類する傾向があり、それら個人と人間とAIの信頼関係全体に因果関係が生じる。
究極的には、AIに対する公的な不信は、誤分類の可能性を十分に根底から懸念しているからである。
本稿では,aiに対する公的な信頼の回復には,システムが「ハンブル・トラスト」のスタンスを具現化するように設計され,偽陰性に関連する不適切な不信の道徳的コストが,開発と使用の間に適切に重み付けられるようにすることを提案する。
関連論文リスト
- Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく調べて、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析し、社会的ストレス要因として機能する。
我々は、AIの公正性を改善するための現在の戦略を検討し、現実の展開の観点からその限界を評価し、社会のかなりの部分を損なうことなくAIの利益を享受するための潜在的な道を探る。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Filling gaps in trustworthy development of AI [20.354549569362035]
AIシステムからの潜在的なリスクに対する認識の高まりは、これらのリスクに対処するための行動を引き起こしている。
しかし、原則はしばしば、信頼できるAI開発における「何」と「方法」の間にギャップを残します。
したがって、AI開発者が害を防ぎ、信頼を証明できる具体的な方法が緊急に必要である。
論文 参考訳(メタデータ) (2021-12-14T22:45:28Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Trustworthy AI [4.670305538969914]
信頼できるAIは、信頼できるコンピューティングとフォーマルな方法の両方に重点を置いている。
信頼できるコンピューティングの数十年の進歩にインスパイアされた私たちは、信頼できるプロパティがAIシステムに求めるものを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:45:36Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。