論文の概要: VizTrust: A Visual Analytics Tool for Capturing User Trust Dynamics in Human-AI Communication
- arxiv url: http://arxiv.org/abs/2503.07279v1
- Date: Mon, 10 Mar 2025 13:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:51:36.308241
- Title: VizTrust: A Visual Analytics Tool for Capturing User Trust Dynamics in Human-AI Communication
- Title(参考訳): VizTrust - ヒューマンAIコミュニケーションにおけるユーザ信頼のダイナミクスをキャプチャするためのビジュアル分析ツール
- Authors: Xin Wang, Stephanie Tulk Jesso, Sadamori Kojaku, David M Neyens, Min Sun Kim,
- Abstract要約: VizTrustはリアルタイムのビジュアル分析ツールで、人間とエージェントのコミュニケーションにおけるユーザの信頼のダイナミクスをキャプチャする。
ステークホルダーは信頼の形成を観測し、信頼開発におけるパターンを特定し、信頼に影響を与える特定の相互作用要素を特定できる。
- 参考スコア(独自算出の注目度): 4.839478919041786
- License:
- Abstract: Trust plays a fundamental role in shaping the willingness of users to engage and collaborate with artificial intelligence (AI) systems. Yet, measuring user trust remains challenging due to its complex and dynamic nature. While traditional survey methods provide trust levels for long conversations, they fail to capture its dynamic evolution during ongoing interactions. Here, we present VizTrust, which addresses this challenge by introducing a real-time visual analytics tool that leverages a multi-agent collaboration system to capture and analyze user trust dynamics in human-agent communication. Built on established human-computer trust scales-competence, integrity, benevolence, and predictability-, VizTrust enables stakeholders to observe trust formation as it happens, identify patterns in trust development, and pinpoint specific interaction elements that influence trust. Our tool offers actionable insights into human-agent trust formation and evolution in real time through a dashboard, supporting the design of adaptive conversational agents that responds effectively to user trust signals.
- Abstract(参考訳): 信頼は、ユーザーが人工知能(AI)システムと関わり、協力する意思を形成する上で、基本的な役割を担っている。
しかし、ユーザの信頼度を測定することは、その複雑でダイナミックな性質のため、依然として難しい。
従来の調査手法は、長い会話の信頼レベルを提供するが、進行中の対話中にそのダイナミックな進化を捉えない。
本稿では、VizTrustを紹介し、この課題に対処するために、マルチエージェントコラボレーションシステムを活用したリアルタイムビジュアル分析ツールを導入し、ヒューマンエージェントコミュニケーションにおけるユーザ信頼のダイナミクスをキャプチャし分析する。
VizTrustは、確立された人間とコンピュータの信頼度尺度、完全性、受益性、予測可能性に基づいて構築され、ステークホルダーが信頼の形成をその場で観察し、信頼開発におけるパターンを特定し、信頼に影響を与える特定の相互作用要素を特定できるようにする。
本ツールは,ユーザ信頼信号に効果的に対応する適応型対話エージェントの設計を支援するために,ダッシュボードを通じてリアルタイムに人間とエージェントの信頼の形成と進化に関する実用的な洞察を提供する。
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires [0.6853165736531939]
我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
論文 参考訳(メタデータ) (2023-03-24T04:42:49Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Trust as Extended Control: Active Inference and User Feedback During
Human-Robot Collaboration [2.6381163133447836]
その重要な役割にもかかわらず、信頼がどのように出現し、発展し、人間以外の人工物との人間の相互作用をサポートするかはほとんど不明です。
拡張モータープラントやパートナーとの信頼性の高い感覚交換のためのエージェントの最良の説明として信頼のモデルを紹介する。
信頼の成因における共有行動の役割について,特にダイアドコラボレーションの文脈で検討する。
論文 参考訳(メタデータ) (2021-04-22T16:11:22Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Towards Time-Aware Context-Aware Deep Trust Prediction in Online Social
Networks [0.4061135251278187]
信頼は、情報ソースが信頼できるか、誰と共有すべきか、誰から情報を受け入れるべきかを決定する尺度として定義できる。
ソーシャルスパマー検出、フェイクニュース検出、リツイート行動検出、レコメンデーションシステムなど、オンラインソーシャルネットワーク(OSN)への信頼のためのいくつかのアプリケーションがある。
信頼予測は、現在接続されていない2人のユーザー間の新しい信頼関係を予測するプロセスである。
論文 参考訳(メタデータ) (2020-03-21T01:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。