論文の概要: Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures
- arxiv url: http://arxiv.org/abs/2203.12318v1
- Date: Wed, 23 Mar 2022 10:39:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 23:25:25.348457
- Title: Trust and Reliance in XAI -- Distinguishing Between Attitudinal and
Behavioral Measures
- Title(参考訳): XAIにおける信頼と信頼--時間的・行動的措置の相違
- Authors: Nicolas Scharowski, Sebastian A. C. Perrig, Nick von Felten, Florian
Br\"uhlmann
- Abstract要約: 研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
この話題に関する実証研究は 透明性が信頼に与える影響に関して 決定的ではありません
我々は、行動的(客観的)信頼度尺度と個人的(客観的)信頼度尺度を明確に区別することを提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust is often cited as an essential criterion for the effective use and
real-world deployment of AI. Researchers argue that AI should be more
transparent to increase trust, making transparency one of the main goals of
XAI. Nevertheless, empirical research on this topic is inconclusive regarding
the effect of transparency on trust. An explanation for this ambiguity could be
that trust is operationalized differently within XAI. In this position paper,
we advocate for a clear distinction between behavioral (objective) measures of
reliance and attitudinal (subjective) measures of trust. However, researchers
sometimes appear to use behavioral measures when intending to capture trust,
although attitudinal measures would be more appropriate. Based on past
research, we emphasize that there are sound theoretical reasons to keep trust
and reliance separate. Properly distinguishing these two concepts provides a
more comprehensive understanding of how transparency affects trust and
reliance, benefiting future XAI research.
- Abstract(参考訳): 信頼はしばしば、AIの効果的な使用と実世界の展開に不可欠な基準として言及される。
研究者たちは、AIは信頼を高めるためにより透明でなければならないと主張しており、透明性はXAIの主要な目標の1つだ。
それでも、このトピックに関する実証研究は、信頼に対する透明性の影響に関して決定的ではない。
この曖昧さに対する説明として、xai内では信頼が異なる操作をされることが考えられる。
本稿では,行動(客観的)の信頼度尺度と信頼度(主観的)尺度とを明確に区別することを提案する。
しかし、研究者は信頼を奪おうとするときに行動的措置を用いることがあるが、対位法の方が適切である。
過去の研究に基づいて、信頼と信頼を別々に維持する理論的な理由があることを強調した。
これら2つの概念を適切に区別することは、透明性が信頼と信頼にどのように影響するかをより包括的に理解し、将来のXAI研究に役立つ。
関連論文リスト
- When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
我々はconfidence-Quality-ORDer保存アライメントアプローチ(CONQORD)を提案する。
品質報酬と秩序保存アライメント報酬機能を統合する。
実験により,CONQORDは信頼性と応答精度のアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - Trust and Transparency in Recommender Systems [0.0]
私たちはまず、AIとRSのコミュニティにおけるさまざまな理解と信頼の測定を経験します。
次に、信頼と透明性の関係とメンタルモデルについて検討し、RSにおける透明性を達成するための異なる戦略について検討する。
論文 参考訳(メタデータ) (2023-04-17T09:09:48Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency [4.003809001962519]
公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
論文 参考訳(メタデータ) (2022-08-01T08:26:57Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。