論文の概要: Trust and Reliance in Consensus-Based Explanations from an
Anti-Misinformation Agent
- arxiv url: http://arxiv.org/abs/2304.11279v1
- Date: Sat, 22 Apr 2023 00:06:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 19:25:34.735801
- Title: Trust and Reliance in Consensus-Based Explanations from an
Anti-Misinformation Agent
- Title(参考訳): 反情報剤からの合意に基づく説明の信頼と信頼
- Authors: Takane Ueno, Yeongdae Kim, Hiroki Oura, Katie Seaborn
- Abstract要約: 発見は信頼の影響ではなく、コンセンサスに基づく説明への依存の影響を示す。
この研究は、XAIを利用するアンチミス情報システムの設計、特にユーザ中心の説明の設計を導くかもしれない。
- 参考スコア(独自算出の注目度): 10.036312061637764
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The illusion of consensus occurs when people believe there is consensus
across multiple sources, but the sources are the same and thus there is no
"true" consensus. We explore this phenomenon in the context of an AI-based
intelligent agent designed to augment metacognition on social media.
Misinformation, especially on platforms like Twitter, is a global problem for
which there is currently no good solution. As an explainable AI (XAI) system,
the agent provides explanations for its decisions on the misinformed nature of
social media content. In this late-breaking study, we explored the roles of
trust (attitude) and reliance (behaviour) as key elements of XAI user
experience (UX) and whether these influenced the illusion of consensus.
Findings show no effect of trust, but an effect of reliance on consensus-based
explanations. This work may guide the design of anti-misinformation systems
that use XAI, especially the user-centred design of explanations.
- Abstract(参考訳): コンセンサスの錯覚は、複数のソースに共通するコンセンサスがあると人々が信じるときに起こるが、ソースは同じであり、「真の」コンセンサスがない。
我々はこの現象を、ソーシャルメディア上でメタ認知を強化するために設計されたAIベースのインテリジェントエージェントの文脈で探求する。
誤情報、特にTwitterのようなプラットフォームでは、現在良い解決策が存在しないグローバルな問題です。
説明可能なAI(XAI)システムとして、エージェントはソーシャルメディアコンテンツの誤表現の性質について、その決定についての説明を提供する。
本稿では,XAIユーザエクスペリエンス(UX)の重要な要素としての信頼(態度)と信頼(行動)の役割と,それらがコンセンサスの錯覚に影響を与えているかどうかを検討した。
発見は信頼の影響ではなく、合意に基づく説明への依存の影響を示す。
この研究は、XAIを利用するアンチミス情報システムの設計、特にユーザ中心の説明の設計を導くかもしれない。
関連論文リスト
- Overcoming Anchoring Bias: The Potential of AI and XAI-based Decision Support [0.0]
情報システム(IS)は、個人の意思決定に影響を与えるバイアスをアンカーする負の効果を利用するように設計されている。
人工知能(AI)の最近の進歩は、偏見のある決定を緩和する新たな機会を開いた。
論文 参考訳(メタデータ) (2024-05-08T11:25:04Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。