論文の概要: More Similar Values, More Trust? -- the Effect of Value Similarity on
Trust in Human-Agent Interaction
- arxiv url: http://arxiv.org/abs/2105.09222v1
- Date: Wed, 19 May 2021 16:06:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:44:25.588295
- Title: More Similar Values, More Trust? -- the Effect of Value Similarity on
Trust in Human-Agent Interaction
- Title(参考訳): より類似した価値、より信頼?
--人間-エージェント間相互作用における価値類似性が信頼に及ぼす影響
- Authors: Siddharth Mehrotra, Catholijn M. Jonker, Myrthe L. Tielman
- Abstract要約: 本稿では,人間とエージェントの相似性(VS)が,そのエージェントに対する人間の信頼にどのように影響するかを考察する。
シナリオベースの実験では、89人の参加者が5つの異なるエージェントと組んだ。
以上の結果から, エージェントの信頼度も高く評価され, 両者の正の効果が示唆された。
- 参考スコア(独自算出の注目度): 6.168444105072466
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As AI systems are increasingly involved in decision making, it also becomes
important that they elicit appropriate levels of trust from their users. To
achieve this, it is first important to understand which factors influence trust
in AI. We identify that a research gap exists regarding the role of personal
values in trust in AI. Therefore, this paper studies how human and agent Value
Similarity (VS) influences a human's trust in that agent. To explore this, 89
participants teamed up with five different agents, which were designed with
varying levels of value similarity to that of the participants. In a
within-subjects, scenario-based experiment, agents gave suggestions on what to
do when entering the building to save a hostage. We analyzed the agent's scores
on subjective value similarity, trust and qualitative data from open-ended
questions. Our results show that agents rated as having more similar values
also scored higher on trust, indicating a positive effect between the two. With
this result, we add to the existing understanding of human-agent trust by
providing insight into the role of value-similarity.
- Abstract(参考訳): AIシステムは意思決定にますます関与しているため、ユーザから適切なレベルの信頼を得ることも重要だ。
これを実現するためには、AIの信頼に影響を与える要因を理解することがまず重要である。
aiへの信頼における個人的価値の役割に関して、研究のギャップが存在することを明らかにする。
そこで本稿では,人間とエージェントの価値類似性(vs)が,そのエージェントに対する人間の信頼に与える影響について検討する。
これを調べるために、89人の参加者が5つの異なるエージェントと組んだ。
シナリオに基づく実験では、エージェントは人質を救うために建物に入る際に何をすべきかを示唆した。
主観的価値の類似性,信頼,質的データに関するエージェントのスコアを分析した。
その結果,より類似した値を持つエージェントも信頼度が高く,両者間の肯定的な効果を示した。
これにより、価値相似性の役割に関する洞察を提供することで、既存の人間-エージェント信頼の理解を深める。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Trust and Transparency in Recommender Systems [0.0]
私たちはまず、AIとRSのコミュニティにおけるさまざまな理解と信頼の測定を経験します。
次に、信頼と透明性の関係とメンタルモデルについて検討し、RSにおける透明性を達成するための異なる戦略について検討する。
論文 参考訳(メタデータ) (2023-04-17T09:09:48Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。