論文の概要: Distrust in (X)AI -- Measurement Artifact or Distinct Construct?
- arxiv url: http://arxiv.org/abs/2303.16495v1
- Date: Wed, 29 Mar 2023 07:14:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 15:47:20.016432
- Title: Distrust in (X)AI -- Measurement Artifact or Distinct Construct?
- Title(参考訳): x)aiの不信 -- 測定アーティファクトか、明確な構成か?
- Authors: Nicolas Scharowski, Sebastian A. C. Perrig
- Abstract要約: 信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust is a key motivation in developing explainable artificial intelligence
(XAI). However, researchers attempting to measure trust in AI face numerous
challenges, such as different trust conceptualizations, simplified experimental
tasks that may not induce uncertainty as a prerequisite for trust, and the lack
of validated trust questionnaires in the context of AI. While acknowledging
these issues, we have identified a further challenge that currently seems
underappreciated - the potential distinction between trust as one construct and
\emph{distrust} as a second construct independent of trust. While there has
been long-standing academic discourse for this distinction and arguments for
both the one-dimensional and two-dimensional conceptualization of trust,
distrust seems relatively understudied in XAI. In this position paper, we not
only highlight the theoretical arguments for distrust as a distinct construct
from trust but also contextualize psychometric evidence that likewise favors a
distinction between trust and distrust. It remains to be investigated whether
the available psychometric evidence is sufficient for the existence of distrust
or whether distrust is merely a measurement artifact. Nevertheless, the XAI
community should remain receptive to considering trust and distrust for a more
comprehensive understanding of these two relevant constructs in XAI.
- Abstract(参考訳): 信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である。
しかし、AIの信頼を測ろうとする研究者は、異なる信頼概念化、信頼の前提条件として不確実性をもたらすことのない実験的なタスクの単純化、AIの文脈における検証された信頼アンケートの欠如など、多くの課題に直面している。
信頼は1つの構成として、そして、信頼から独立した第2の構成として、"emph{distrust}"は、潜在的に区別される可能性がある。
この区別と信頼の1次元と2次元の概念化の議論については長い間学術的な議論があったが、xaiでは不信感は比較的低かったようである。
本稿では,信頼と不信頼を区別する概念としての不信の理論的な議論を強調するだけでなく,信頼と不信の区別を同じく好む心理学的証拠を文脈化する。
利用可能な心理測定証拠が不信感の存在に十分か、不信感が単なる測定アーティファクトであるのかはまだ調査されていない。
それでも、XAIコミュニティは、これら2つの関連構造をより包括的に理解するために、信頼と不信を考慮すべきである。
関連論文リスト
- Trusting Your AI Agent Emotionally and Cognitively: Development and Validation of a Semantic Differential Scale for AI Trust [16.140485357046707]
感情的・認知的信頼のための27項目のセマンティック・ディファレンシャル・スケールを開発し,検証した。
我々の経験的発見は、信頼の感情的側面と認知的側面が相互にどのように相互作用し、AIエージェントに対する個人の全体的な信頼を形成するかを示した。
論文 参考訳(メタデータ) (2024-07-25T18:55:33Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - KGTrust: Evaluating Trustworthiness of SIoT via Knowledge Enhanced Graph
Neural Networks [63.531790269009704]
ソーシャル・インターネット・オブ・モノ(Social Internet of Things, SIoT)は、スマート・オブジェクト(物)にソーシャルネットワークの概念を注入する、有望で新興のパラダイムである。
リスクと不確実性のため、解決すべき重要かつ緊急の問題は、SIoT内で信頼性の高い関係、すなわち信頼評価を確立することである。
本稿では,SIoTにおける信頼度向上のための知識強化グラフニューラルネットワーク(KGTrust)を提案する。
論文 参考訳(メタデータ) (2023-02-22T14:24:45Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures [0.0]
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
論文 参考訳(メタデータ) (2022-03-23T10:39:39Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。