論文の概要: Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey
- arxiv url: http://arxiv.org/abs/2209.04388v1
- Date: Fri, 9 Sep 2022 16:46:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:57:13.846346
- Title: Trust Calibration as a Function of the Evolution of Uncertainty in
Knowledge Generation: A Survey
- Title(参考訳): 知識生成における不確かさの進化の関数としての信頼校正:調査
- Authors: Joshua Boley and Maoyuan Sun
- Abstract要約: 我々は、視覚分析システムにおけるユーザの信頼が、そのライフサイクルを通してどのように進化していくかを理解するためには、情報抽出を通じて、データソースからの不確実性の伝播を考慮する必要があると論じている。
我々は、視覚分析、人間の認知理論、不確実性から文献の幅広い断面をサンプリングし、有用な視点を合成しようと試みる。
- 参考スコア(独自算出の注目度): 1.462008690460147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User trust is a crucial consideration in designing robust visual analytics
systems that can guide users to reasonably sound conclusions despite inevitable
biases and other uncertainties introduced by the human, the machine, and the
data sources which paint the canvas upon which knowledge emerges. A multitude
of factors emerge upon studied consideration which introduce considerable
complexity and exacerbate our understanding of how trust relationships evolve
in visual analytics systems, much as they do in intelligent sociotechnical
systems. A visual analytics system, however, does not by its nature provoke
exactly the same phenomena as its simpler cousins, nor are the phenomena
necessarily of the same exact kind. Regardless, both application domains
present the same root causes from which the need for trustworthiness arises:
Uncertainty and the assumption of risk. In addition, visual analytics systems,
even more than the intelligent systems which (traditionally) tend to be closed
to direct human input and direction during processing, are influenced by a
multitude of cognitive biases that further exacerbate an accounting of the
uncertainties that may afflict the user's confidence, and ultimately trust in
the system.
In this article we argue that accounting for the propagation of uncertainty
from data sources all the way through extraction of information and hypothesis
testing is necessary to understand how user trust in a visual analytics system
evolves over its lifecycle, and that the analyst's selection of visualization
parameters affords us a simple means to capture the interactions between
uncertainty and cognitive bias as a function of the attributes of the search
tasks the analyst executes while evaluating explanations. We sample a broad
cross-section of the literature from visual analytics, human cognitive theory,
and uncertainty, and attempt to synthesize a useful perspective.
- Abstract(参考訳): ユーザ信頼は、人間、機械、そして知識が出現するキャンバスを描くデータソースによってもたらされる不確実性にもかかわらず、ユーザに合理的な結論を導くための堅牢なビジュアル分析システムを設計する上で重要な考慮事項である。
知的社会技術システムと同様に、視覚分析システムにおいて信頼関係がどのように進化するかについての理解が、かなり複雑化し、さらに悪化する研究上の考察に、数多くの要因が浮かび上がっている。
しかし、視覚分析システムは、その性質上、単純な従兄弟と全く同じ現象を生じさせるものではなく、必ずしも全く同じ種類の現象であるとは限らない。
いずれにしても、どちらのアプリケーションドメインも、信頼性の必要性が生まれる同じ根本原因、不確実性とリスクの仮定を示します。
さらに、視覚分析システムは、(従来は)人間の入力や処理中の方向を指示するために閉じられている知的なシステムよりも、多くの認知バイアスに影響され、ユーザの信頼を損なう可能性のある不確実性の会計を更に悪化させ、最終的にはシステムへの信頼を増す。
In this article we argue that accounting for the propagation of uncertainty from data sources all the way through extraction of information and hypothesis testing is necessary to understand how user trust in a visual analytics system evolves over its lifecycle, and that the analyst's selection of visualization parameters affords us a simple means to capture the interactions between uncertainty and cognitive bias as a function of the attributes of the search tasks the analyst executes while evaluating explanations.
我々は,視覚分析,認知理論,不確実性から幅広い文献を抽出し,有用な視点を合成する試みを行った。
関連論文リスト
- Unified Causality Analysis Based on the Degrees of Freedom [1.2289361708127877]
本稿では,システム間の因果関係を同定する統一手法を提案する。
システムの自由度を分析することで、私たちのアプローチは因果的影響と隠れた共同設立者の両方についてより包括的な理解を提供する。
この統合されたフレームワークは、理論モデルとシミュレーションを通じて検証され、その堅牢性とより広範な応用の可能性を示す。
論文 参考訳(メタデータ) (2024-10-25T10:57:35Z) - A Factor Graph Model of Trust for a Collaborative Multi-Agent System [8.286807697708113]
信頼とは、エージェントがシステム内の他者の情報、行動、意図、真実性、能力に依存し、信頼することである。
本稿では,エージェント間の相互依存行動と信頼性を表現するために因子グラフを利用する新しいグラフィカルアプローチを提案する。
信頼度評価手法は分散化され, 近接安全性, 一貫性, 協調といった重要な相互依存サブファクタを考察する。
論文 参考訳(メタデータ) (2024-02-10T21:44:28Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。