論文の概要: Humans, AI, and Context: Understanding End-Users' Trust in a Real-World
Computer Vision Application
- arxiv url: http://arxiv.org/abs/2305.08598v1
- Date: Mon, 15 May 2023 12:27:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 14:33:19.234709
- Title: Humans, AI, and Context: Understanding End-Users' Trust in a Real-World
Computer Vision Application
- Title(参考訳): 人間、AI、コンテキスト:現実世界のコンピュータビジョンアプリケーションにおけるエンドユーザの信頼を理解する
- Authors: Sunnie S. Y. Kim and Elizabeth Anne Watkins and Olga Russakovsky and
Ruth Fong and Andr\'es Monroy-Hern\'andez
- Abstract要約: 我々は,現実のコンピュータビジョンアプリケーションの定性的なケーススタディを通じて,AIに対する信頼の包括的でニュアンスな理解を提供する。
参加者はアプリが信頼できると認識し信頼するが、検証行動に関わった後、選択的にアプリアウトプットを受け入れた。
本研究は,AIの信頼性に関する今後の研究への提言として,その意義について論じる。
- 参考スコア(独自算出の注目度): 22.00514030715286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust is an important factor in people's interactions with AI systems.
However, there is a lack of empirical studies examining how real end-users
trust or distrust the AI system they interact with. Most research investigates
one aspect of trust in lab settings with hypothetical end-users. In this paper,
we provide a holistic and nuanced understanding of trust in AI through a
qualitative case study of a real-world computer vision application. We report
findings from interviews with 20 end-users of a popular, AI-based bird
identification app where we inquired about their trust in the app from many
angles. We find participants perceived the app as trustworthy and trusted it,
but selectively accepted app outputs after engaging in verification behaviors,
and decided against app adoption in certain high-stakes scenarios. We also find
domain knowledge and context are important factors for trust-related assessment
and decision-making. We discuss the implications of our findings and provide
recommendations for future research on trust in AI.
- Abstract(参考訳): 信頼は、AIシステムとのインタラクションにおいて重要な要素である。
しかし、実際のエンドユーザーがどのように相互作用するAIシステムを信頼するか、あるいは不信頼しているかを実証的な研究が不足している。
ほとんどの研究は、仮説的なエンドユーザーと実験室の設定における信頼の一面を調査している。
本稿では,実世界のコンピュータビジョンアプリケーションの定性的なケーススタディを通じて,AIに対する信頼の包括的で曖昧な理解を提供する。
われわれは、人気の高いAIベースの鳥識別アプリのエンドユーザ20名を対象に、さまざまな角度からアプリに対する信頼について質問した。
参加者はこのアプリを信頼できるものと認識し、信頼していますが、検証行動に携わった後に選択的にアプリのアウトプットを受け入れました。
また、信頼に関する評価や意思決定において、ドメイン知識とコンテキストが重要な要素であることも分かりました。
本研究の目的は,AIの信頼性に関する今後の研究への提言である。
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Trustworthy AI [4.670305538969914]
信頼できるAIは、信頼できるコンピューティングとフォーマルな方法の両方に重点を置いている。
信頼できるコンピューティングの数十年の進歩にインスパイアされた私たちは、信頼できるプロパティがAIシステムに求めるものを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:45:36Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。