論文の概要: A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective
- arxiv url: http://arxiv.org/abs/2304.08795v1
- Date: Tue, 18 Apr 2023 07:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:45:10.926954
- Title: A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective
- Title(参考訳): AI可能なシステムにおけるユーザ信頼の体系的文献レビュー:HCIの視点から
- Authors: Tita Alissa Bach, Amna Khan, Harry Hallock, Gabriela Beltr\~ao, Sonia
Sousa
- Abstract要約: 人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User trust in Artificial Intelligence (AI) enabled systems has been
increasingly recognized and proven as a key element to fostering adoption. It
has been suggested that AI-enabled systems must go beyond technical-centric
approaches and towards embracing a more human centric approach, a core
principle of the human-computer interaction (HCI) field. This review aims to
provide an overview of the user trust definitions, influencing factors, and
measurement methods from 23 empirical studies to gather insight for future
technical and design strategies, research, and initiatives to calibrate the
user AI relationship. The findings confirm that there is more than one way to
define trust. Selecting the most appropriate trust definition to depict user
trust in a specific context should be the focus instead of comparing
definitions. User trust in AI-enabled systems is found to be influenced by
three main themes, namely socio-ethical considerations, technical and design
features, and user characteristics. User characteristics dominate the findings,
reinforcing the importance of user involvement from development through to
monitoring of AI enabled systems. In conclusion, user trust needs to be
addressed directly in every context where AI-enabled systems are being used or
discussed. In addition, calibrating the user-AI relationship requires finding
the optimal balance that works for not only the user but also the system.
- Abstract(参考訳): 人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として認識され、証明されている。
AI対応システムは、技術中心のアプローチを超えて、より人間中心のアプローチ、HCI(Human-Computer Interaction)分野の核となる原則を受け入れる必要があることが示唆されている。
このレビューは、ユーザー信頼の定義、影響要因、および23の実証的研究からの計測方法の概要を提供し、将来の技術および設計戦略、研究、ユーザーAI関係を校正するためのイニシアチブの洞察を集めることを目的としている。
その結果、信頼を定義する方法が複数あることが確認された。
特定のコンテキストにおけるユーザの信頼を描写する最も適切な信頼定義の選択は、定義を比較するのではなく、重点を置くべきです。
ai対応システムのユーザ信頼は、社会倫理的考察、技術とデザインの特徴、ユーザ特性という3つの主要なテーマに影響されている。
ユーザ特性は,開発からAI対応システムの監視に至るまで,ユーザの関与の重要性を増進する。
結論として、ユーザー信頼は、ai対応システムの使用や議論が行われているすべてのコンテキストで直接対応する必要がある。
さらに、ユーザとAIの関係を校正するには、ユーザだけでなくシステムにも最適なバランスを見つける必要がある。
関連論文リスト
- A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Human-centered trust framework: An HCI perspective [1.6344851071810074]
この研究の理論的根拠は、現在の人工知能(AI)のユーザ信頼談話に基づいている。
我々は、AI設計におけるユーザ信頼の可能性を最大限に解き放つために、非専門家を導くためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-05T06:15:32Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。