論文の概要: A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective
- arxiv url: http://arxiv.org/abs/2304.08795v1
- Date: Tue, 18 Apr 2023 07:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:45:10.926954
- Title: A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective
- Title(参考訳): AI可能なシステムにおけるユーザ信頼の体系的文献レビュー:HCIの視点から
- Authors: Tita Alissa Bach, Amna Khan, Harry Hallock, Gabriela Beltr\~ao, Sonia
Sousa
- Abstract要約: 人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User trust in Artificial Intelligence (AI) enabled systems has been
increasingly recognized and proven as a key element to fostering adoption. It
has been suggested that AI-enabled systems must go beyond technical-centric
approaches and towards embracing a more human centric approach, a core
principle of the human-computer interaction (HCI) field. This review aims to
provide an overview of the user trust definitions, influencing factors, and
measurement methods from 23 empirical studies to gather insight for future
technical and design strategies, research, and initiatives to calibrate the
user AI relationship. The findings confirm that there is more than one way to
define trust. Selecting the most appropriate trust definition to depict user
trust in a specific context should be the focus instead of comparing
definitions. User trust in AI-enabled systems is found to be influenced by
three main themes, namely socio-ethical considerations, technical and design
features, and user characteristics. User characteristics dominate the findings,
reinforcing the importance of user involvement from development through to
monitoring of AI enabled systems. In conclusion, user trust needs to be
addressed directly in every context where AI-enabled systems are being used or
discussed. In addition, calibrating the user-AI relationship requires finding
the optimal balance that works for not only the user but also the system.
- Abstract(参考訳): 人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として認識され、証明されている。
AI対応システムは、技術中心のアプローチを超えて、より人間中心のアプローチ、HCI(Human-Computer Interaction)分野の核となる原則を受け入れる必要があることが示唆されている。
このレビューは、ユーザー信頼の定義、影響要因、および23の実証的研究からの計測方法の概要を提供し、将来の技術および設計戦略、研究、ユーザーAI関係を校正するためのイニシアチブの洞察を集めることを目的としている。
その結果、信頼を定義する方法が複数あることが確認された。
特定のコンテキストにおけるユーザの信頼を描写する最も適切な信頼定義の選択は、定義を比較するのではなく、重点を置くべきです。
ai対応システムのユーザ信頼は、社会倫理的考察、技術とデザインの特徴、ユーザ特性という3つの主要なテーマに影響されている。
ユーザ特性は,開発からAI対応システムの監視に至るまで,ユーザの関与の重要性を増進する。
結論として、ユーザー信頼は、ai対応システムの使用や議論が行われているすべてのコンテキストで直接対応する必要がある。
さらに、ユーザとAIの関係を校正するには、ユーザだけでなくシステムにも最適なバランスを見つける必要がある。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - The impact of labeling automotive AI as "trustworthy" or "reliable" on user evaluation and technology acceptance [0.0]
本研究は,AIを「信頼できる」あるいは「信頼できる」とラベル付けすることが,自動車AI技術のユーザ認識と受容に影響を及ぼすかどうかを考察する。
この研究は、一方的なオブジェクト間の設計を用いて、478人のオンライン参加者を巻き込み、信頼できるAIまたは信頼できるAIのガイドラインを提示した。
AIを「信頼できる」とラベル付けすることは、特定のシナリオにおける判断に大きな影響を与えなかったが、使用の容易さと人間のような信頼、特に善意が増した。
論文 参考訳(メタデータ) (2024-08-20T14:48:24Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Human-centered trust framework: An HCI perspective [1.6344851071810074]
この研究の理論的根拠は、現在の人工知能(AI)のユーザ信頼談話に基づいている。
我々は、AI設計におけるユーザ信頼の可能性を最大限に解き放つために、非専門家を導くためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-05T06:15:32Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。