論文の概要: Trust in AI and Its Role in the Acceptance of AI Technologies
- arxiv url: http://arxiv.org/abs/2203.12687v1
- Date: Wed, 23 Mar 2022 19:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:44:03.287565
- Title: Trust in AI and Its Role in the Acceptance of AI Technologies
- Title(参考訳): AIへの信頼とAI技術の受容におけるその役割
- Authors: Hyesun Choung, Prabu David, Arun Ross
- Abstract要約: 本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
- 参考スコア(独自算出の注目度): 12.175031903660972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI-enhanced technologies become common in a variety of domains, there is
an increasing need to define and examine the trust that users have in such
technologies. Given the progress in the development of AI, a correspondingly
sophisticated understanding of trust in the technology is required. This paper
addresses this need by explaining the role of trust on the intention to use AI
technologies. Study 1 examined the role of trust in the use of AI voice
assistants based on survey responses from college students. A path analysis
confirmed that trust had a significant effect on the intention to use AI, which
operated through perceived usefulness and participants' attitude toward voice
assistants. In study 2, using data from a representative sample of the U.S.
population, different dimensions of trust were examined using exploratory
factor analysis, which yielded two dimensions: human-like trust and
functionality trust. The results of the path analyses from Study 1 were
replicated in Study 2, confirming the indirect effect of trust and the effects
of perceived usefulness, ease of use, and attitude on intention to use.
Further, both dimensions of trust shared a similar pattern of effects within
the model, with functionality-related trust exhibiting a greater total impact
on usage intention than human-like trust. Overall, the role of trust in the
acceptance of AI technologies was significant across both studies. This
research contributes to the advancement and application of the TAM in
AI-related applications and offers a multidimensional measure of trust that can
be utilized in the future study of trustworthy AI.
- Abstract(参考訳): aiエンハンスド技術がさまざまな領域で一般的になるにつれて、そのような技術でユーザが持つ信頼を定義する必要性が高まっている。
AIの発展の進展を踏まえると、技術に対する信頼性の高度な理解が必要である。
本稿では、AI技術を使用する意図に対する信頼の役割を説明することによって、このニーズに対処する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
経路分析により、信頼がAIの使用意図に重大な影響があることが確認された。
調査2では,米国人代表者のデータを用いて,人間のような信頼と機能信頼の2つの次元を持つ探索的因子分析を用いて,信頼の異なる次元について検討した。
研究1から得られたパス分析の結果を研究2で再現し,信頼の間接的効果と,有用性,使いやすさ,使用意図に対する態度の間接的影響を確認した。
さらに、信頼の両次元はモデル内の同様の影響パターンを共有しており、機能関連信頼は人間のような信頼よりも使用意図に大きく影響している。
全体として、AI技術の受容における信頼の役割は、両研究の間で重要なものだった。
この研究は、AI関連の応用におけるTAMの進歩と応用に寄与し、信頼できるAIの研究に活用できる多次元信頼尺度を提供する。
関連論文リスト
- The impact of labeling automotive AI as "trustworthy" or "reliable" on user evaluation and technology acceptance [0.0]
本研究は,AIを「信頼できる」あるいは「信頼できる」とラベル付けすることが,自動車AI技術のユーザ認識と受容に影響を及ぼすかどうかを考察する。
この研究は、一方的なオブジェクト間の設計を用いて、478人のオンライン参加者を巻き込み、信頼できるAIまたは信頼できるAIのガイドラインを提示した。
AIを「信頼できる」とラベル付けすることは、特定のシナリオにおける判断に大きな影響を与えなかったが、使用の容易さと人間のような信頼、特に善意が増した。
論文 参考訳(メタデータ) (2024-08-20T14:48:24Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective [0.0]
人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-04-18T07:58:09Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Will We Trust What We Don't Understand? Impact of Model Interpretability
and Outcome Feedback on Trust in AI [0.0]
我々は、AI支援予測タスクにおける、解釈可能性と結果フィードバックがAIの信頼度および人的パフォーマンスに与える影響を分析する。
解釈可能性によって信頼性が向上することはなく、結果のフィードバックははるかに大きく、信頼性が高くなりました。
論文 参考訳(メタデータ) (2021-11-16T04:35:34Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。