論文の概要: Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires
- arxiv url: http://arxiv.org/abs/2303.13799v1
- Date: Fri, 24 Mar 2023 04:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:45:02.285113
- Title: Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires
- Title(参考訳): 収束対策と創発モデル:人間自動信頼アンケートのメタ分析
- Authors: Yosef S. Razin and Karen M. Feigh
- Abstract要約: 我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A significant challenge to measuring human-automation trust is the amount of
construct proliferation, models, and questionnaires with highly variable
validation. However, all agree that trust is a crucial element of technological
acceptance, continued usage, fluency, and teamwork. Herein, we synthesize a
consensus model for trust in human-automation interaction by performing a
meta-analysis of validated and reliable trust survey instruments. To accomplish
this objective, this work identifies the most frequently cited and
best-validated human-automation and human-robot trust questionnaires, as well
as the most well-established factors, which form the dimensions and antecedents
of such trust. To reduce both confusion and construct proliferation, we provide
a detailed mapping of terminology between questionnaires. Furthermore, we
perform a meta-analysis of the regression models that emerged from those
experiments which used multi-factorial survey instruments. Based on this
meta-analysis, we demonstrate a convergent experimentally validated model of
human-automation trust. This convergent model establishes an integrated
framework for future research. It identifies the current boundaries of trust
measurement and where further investigation is necessary. We close by
discussing choosing and designing an appropriate trust survey instrument. By
comparing, mapping, and analyzing well-constructed trust survey instruments, a
consensus structure of trust in human-automation interaction is identified.
Doing so discloses a more complete basis for measuring trust emerges that is
widely applicable. It integrates the academic idea of trust with the
colloquial, common-sense one. Given the increasingly recognized importance of
trust, especially in human-automation interaction, this work leaves us better
positioned to understand and measure it.
- Abstract(参考訳): 人自動信頼度を測定する上で重要な課題は、高度に可変性のある構成拡散、モデル、アンケートの量である。
しかし、全員が信頼が技術受容、継続的な使用、流動性、チームワークの重要な要素であることに同意する。
そこで本研究では,信頼度・信頼度調査機器のメタ分析を行い,信頼度評価のためのコンセンサスモデルを合成する。
この目的を達成するために、この研究は、最も頻繁に引用され、最も有望な人間自動化と人間ロボット信頼のアンケートと、そのような信頼の次元と先行を形成する最も確立された要因を識別する。
混乱と人口増加を両立させるため,質問紙間の用語の詳細なマッピングを行う。
さらに,多因子サーベイ機器を用いた実験から得られた回帰モデルのメタ分析を行った。
このメタアナリシスに基づいて,人間-自律信頼の実験的検証モデルを示す。
この収束モデルは、将来の研究のための統合フレームワークを確立する。
信頼度測定の現在の境界と、さらなる調査が必要かを特定する。
我々は、適切な信頼調査機器の選択と設計を議論することで締めくくります。
信頼度調査機器の比較,マッピング,分析により,人間-自律相互作用における信頼のコンセンサス構造を同定する。
そうすることで、信頼を測定するためのより完全な基盤が、広く適用できるようになります。
信頼という学問的考えと、口語的で常識的な概念を統合する。
信頼の重要性がますます認識され、特に人間と自律的な相互作用において、この研究は、それを理解し、測定するためのより良い位置を与えてくれます。
関連論文リスト
- Enhancing Answer Reliability Through Inter-Model Consensus of Large Language Models [1.6874375111244329]
先進モデルを含む革新的な言語モデル相互作用システムの協調力学について検討する。
これらのモデルは、正確な基底的答えを伴わずに、複雑でPhDレベルの統計的疑問を生成し、答える。
本研究では,モデル間のコンセンサスによって応答の信頼性と精度が向上することを示す。
論文 参考訳(メタデータ) (2024-11-25T10:18:17Z) - Bayesian Methods for Trust in Collaborative Multi-Agent Autonomy [11.246557832016238]
安全クリティカルで競争の激しい環境では、敵は多数のエージェントに侵入し、妥協することがある。
我々は、この妥協されたエージェント脅威モデルの下で、アートマルチターゲット追跡アルゴリズムの状態を解析する。
階層的ベイズ更新を用いた信頼度推定フレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-25T17:17:35Z) - A Systematic Review on Fostering Appropriate Trust in Human-AI
Interaction [19.137907393497848]
人工知能の適切な信頼(AI)システムは、研究者と実践者の両方にとって、急速に重要な領域になってきた。
信頼度スコア、説明、信頼度基準、不確実性通信など、様々なアプローチがそれを達成するために使われてきた。
本稿では、適切な信頼を構築するための現在の実践、それを測定するためのさまざまな方法、使用するタスクの種類、それに関連する潜在的な課題を特定するための体系的なレビューを示す。
論文 参考訳(メタデータ) (2023-11-08T12:19:58Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Improving Model Understanding and Trust with Counterfactual Explanations
of Model Confidence [4.385390451313721]
人間とエージェントのインタラクションシステムにおける信頼度を示すことは、人間とAIシステムの信頼を構築するのに役立つ。
既存の研究の多くは、信頼度スコアをコミュニケーションの形式としてのみ用いた。
本稿では, モデル信頼度を理解するための2つの手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T04:04:28Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods [12.641141743223377]
AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
どんな信頼モデルが使われているのか、どんなシステムに使われているのかは、ほとんど分かっていない。
AIの信頼を測定するための標準的なアプローチはまだ知られていない。
論文 参考訳(メタデータ) (2022-04-30T07:34:19Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。