論文の概要: Humble Machines: Attending to the Underappreciated Costs of Misplaced
Distrust
- arxiv url: http://arxiv.org/abs/2208.01305v1
- Date: Tue, 2 Aug 2022 08:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:15:56.283413
- Title: Humble Machines: Attending to the Underappreciated Costs of Misplaced
Distrust
- Title(参考訳): 謙虚な機械:不信不信の過小評価の費用に出席する
- Authors: Bran Knowles, Jason D'Cruz, John T. Richards, Kush R. Varshney
- Abstract要約: 我々は、AIに対する公的な不信は、誤分類される可能性があるという確固たる懸念に起因していると主張している。
我々は、AIに対する公的な信頼を回復するためには、システムは「信頼を損なう」姿勢を具現化するように設計する必要があると提案する。
- 参考スコア(独自算出の注目度): 20.685627416074286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is curious that AI increasingly outperforms human decision makers, yet
much of the public distrusts AI to make decisions affecting their lives. In
this paper we explore a novel theory that may explain one reason for this. We
propose that public distrust of AI is a moral consequence of designing systems
that prioritize reduction of costs of false positives over less tangible costs
of false negatives. We show that such systems, which we characterize as
'distrustful', are more likely to miscategorize trustworthy individuals, with
cascading consequences to both those individuals and the overall human-AI trust
relationship. Ultimately, we argue that public distrust of AI stems from
well-founded concern about the potential of being miscategorized. We propose
that restoring public trust in AI will require that systems are designed to
embody a stance of 'humble trust', whereby the moral costs of the misplaced
distrust associated with false negatives is weighted appropriately during
development and use.
- Abstract(参考訳): AIがますます人間の意思決定者より優れているのは不思議だが、一般大衆はAIが彼らの生活に影響を及ぼす決定を下すことに不信感を抱いている。
本稿では,その一つの理由を説明する新しい理論について考察する。
我々は、AIに対する公的な不信は、偽陰性の少ないコストよりも偽陽性のコストの削減を優先するシステムを設計する道徳的な結果であると提案する。
私たちが「不信」と特徴づけるこのようなシステムは、信頼に値する個人を誤分類する傾向があり、それら個人と人間とAIの信頼関係全体に因果関係が生じる。
究極的には、AIに対する公的な不信は、誤分類の可能性を十分に根底から懸念しているからである。
本稿では,aiに対する公的な信頼の回復には,システムが「ハンブル・トラスト」のスタンスを具現化するように設計され,偽陰性に関連する不適切な不信の道徳的コストが,開発と使用の間に適切に重み付けられるようにすることを提案する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - AI Consciousness and Public Perceptions: Four Futures [0.0]
我々は、未来の人間社会が高度なAIシステムを意識していると広く信じているかどうかを調査する。
私たちは、AIの苦悩、人間の非エンパワーメント、地政学的な不安定、そして人間の絶望の4つの大きなリスクを特定します。
この論文は、意識的なAIを意図的に創出することを目的とした研究を避けるための主要な推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2024-08-08T22:01:57Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Filling gaps in trustworthy development of AI [20.354549569362035]
AIシステムからの潜在的なリスクに対する認識の高まりは、これらのリスクに対処するための行動を引き起こしている。
しかし、原則はしばしば、信頼できるAI開発における「何」と「方法」の間にギャップを残します。
したがって、AI開発者が害を防ぎ、信頼を証明できる具体的な方法が緊急に必要である。
論文 参考訳(メタデータ) (2021-12-14T22:45:28Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。