論文の概要: VISPUR: Visual Aids for Identifying and Interpreting Spurious
Associations in Data-Driven Decisions
- arxiv url: http://arxiv.org/abs/2307.14448v1
- Date: Wed, 26 Jul 2023 18:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 16:48:19.168991
- Title: VISPUR: Visual Aids for Identifying and Interpreting Spurious
Associations in Data-Driven Decisions
- Title(参考訳): VISPUR: データ駆動決定における純粋アソシエーションの特定と解釈のためのビジュアルエイド
- Authors: Xian Teng, Yongsu Ahn, Yu-Ru Lin
- Abstract要約: シンプソンのパラドックス(シンプソンのパラドックス、英: paradox)は、集合とサブグループレベルの関連が互いに矛盾する現象である。
既存のツールは、人間が実際に急激な協会の落とし穴を見つけ、推論し、防ぐための洞察をほとんど提供しない。
本稿では、因果解析フレームワークと人間中心のワークフローを提供する視覚分析システムであるVISPURを提案する。
- 参考スコア(独自算出の注目度): 8.594140167290098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Big data and machine learning tools have jointly empowered humans in making
data-driven decisions. However, many of them capture empirical associations
that might be spurious due to confounding factors and subgroup heterogeneity.
The famous Simpson's paradox is such a phenomenon where aggregated and
subgroup-level associations contradict with each other, causing cognitive
confusions and difficulty in making adequate interpretations and decisions.
Existing tools provide little insights for humans to locate, reason about, and
prevent pitfalls of spurious association in practice. We propose VISPUR, a
visual analytic system that provides a causal analysis framework and a
human-centric workflow for tackling spurious associations. These include a
CONFOUNDER DASHBOARD, which can automatically identify possible confounding
factors, and a SUBGROUP VIEWER, which allows for the visualization and
comparison of diverse subgroup patterns that likely or potentially result in a
misinterpretation of causality. Additionally, we propose a REASONING
STORYBOARD, which uses a flow-based approach to illustrate paradoxical
phenomena, as well as an interactive DECISION DIAGNOSIS panel that helps ensure
accountable decision-making. Through an expert interview and a controlled user
experiment, our qualitative and quantitative results demonstrate that the
proposed "de-paradox" workflow and the designed visual analytic system are
effective in helping human users to identify and understand spurious
associations, as well as to make accountable causal decisions.
- Abstract(参考訳): ビッグデータと機械学習のツールは、データ駆動の意思決定で人間に力を与えてきた。
しかし、それらの多くは、結合する要因と部分群の不均質性によって引き起こされる可能性のある経験的関連を捉えている。
有名なシンプソンのパラドックスは、集約とサブグループレベルの関係が互いに矛盾し、認知的な混乱と適切な解釈や決定が困難になる現象である。
既存のツールは、人間が実際に急激な協会の落とし穴を見つけ、推論し、防ぐための洞察をほとんど提供しない。
本稿では、因果解析フレームワークと人間中心のワークフローを提供する視覚分析システムであるVISPURを提案する。
それらはConFOUNDER DASHBOARD(英語版)とSUBGROUP VIEWER(英語版)で、因果関係の誤解釈をもたらす可能性のある様々なサブグループのパターンの可視化と比較を可能にする。
また,フローベースの手法を用いてパラドックス現象を説明できるREASONING STORYBOARDや,説明責任のある意思決定を支援するインタラクティブなDEC(Decision DIAGNOSIS)パネルを提案する。
専門的なインタビューと制御されたユーザ実験を通じて,提案した「デパラドックス」ワークフローとデザインされた視覚分析システムが,突発的な関連を識別し理解し,説明可能な因果決定を行うのに役立つことを示す。
関連論文リスト
- Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z) - Causal Disentangled Variational Auto-Encoder for Preference
Understanding in Recommendation [50.93536377097659]
本稿では,コメンテータシステムにおける対話データから因果不整合表現を学習するためのCaD-VAE(Causal Disentangled Variational Auto-Encoder)を提案する。
この手法は構造因果モデルを用いて、潜在因子間の因果関係を記述する因果表現を生成する。
論文 参考訳(メタデータ) (2023-04-17T00:10:56Z) - ESCAPE: Countering Systematic Errors from Machine's Blind Spots via
Interactive Visual Analysis [13.97436974677563]
本稿では,系統的エラーに対応するためのヒューマン・イン・ザ・ループ・ワークフローを促進する視覚解析システムであるESCAPEを提案する。
このシステムでは, 利用者が素早い関連を検査しやすくすることで, 利用者が自然に関連付けられた誤分類を認識できるようにする。
また、概念と事例の関連をより正確に定量化するための相対的概念関連法と、急激な関連を緩和するためのデバイアス法という2つの統計的アプローチを提案する。
論文 参考訳(メタデータ) (2023-03-16T21:29:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - VAC2: Visual Analysis of Combined Causality in Event Sequences [6.145427901944597]
我々は,複合原因と個別原因の探索を支援するために,複合因果解析システムを開発した。
この対話システムは多段階因果探索をサポートし,多様な順序付け戦略と焦点とコンテキスト技術を備える。
本システムの有用性と有効性は,パイロットユーザによる研究と,イベントシーケンスデータに関する2つのケーススタディによってさらに評価される。
論文 参考訳(メタデータ) (2022-06-11T04:53:23Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Visual Causality Analysis of Event Sequence Data [32.74361488457415]
イベントシーケンスデータの因果関係を復元する視覚解析手法を提案する。
我々は,Hawkesプロセス上のGranger因果解析アルゴリズムを拡張し,ユーザフィードバックを因果モデルの改良に組み込む。
論文 参考訳(メタデータ) (2020-09-01T04:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。