論文の概要: Trust Your Gut: Comparing Human and Machine Inference from Noisy Visualizations
- arxiv url: http://arxiv.org/abs/2407.16871v1
- Date: Tue, 23 Jul 2024 22:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 15:22:45.454499
- Title: Trust Your Gut: Comparing Human and Machine Inference from Noisy Visualizations
- Title(参考訳): 騒音の可視化から人間と機械の推論を比較する
- Authors: Ratanond Koonchanok, Michael E. Papka, Khairi Reda,
- Abstract要約: 人間の直観が理想的な統計的合理性を超えたシナリオを考察する。
その結果,合理性から外れた場合でも,可視化に対するアナリストの反応が有利である可能性が示唆された。
- 参考スコア(独自算出の注目度): 7.305342793164905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People commonly utilize visualizations not only to examine a given dataset, but also to draw generalizable conclusions about the underlying models or phenomena. Prior research has compared human visual inference to that of an optimal Bayesian agent, with deviations from rational analysis viewed as problematic. However, human reliance on non-normative heuristics may prove advantageous in certain circumstances. We investigate scenarios where human intuition might surpass idealized statistical rationality. In two experiments, we examine individuals' accuracy in characterizing the parameters of known data-generating models from bivariate visualizations. Our findings indicate that, although participants generally exhibited lower accuracy compared to statistical models, they frequently outperformed Bayesian agents, particularly when faced with extreme samples. Participants appeared to rely on their internal models to filter out noisy visualizations, thus improving their resilience against spurious data. However, participants displayed overconfidence and struggled with uncertainty estimation. They also exhibited higher variance than statistical machines. Our findings suggest that analyst gut reactions to visualizations may provide an advantage, even when departing from rationality. These results carry implications for designing visual analytics tools, offering new perspectives on how to integrate statistical models and analyst intuition for improved inference and decision-making. The data and materials for this paper are available at https://osf.io/qmfv6
- Abstract(参考訳): 人々は一般的に、あるデータセットを調べるだけでなく、基礎となるモデルや現象に関する一般的な結論を引き出すために視覚化を利用する。
これまでの研究では、人間の視覚的推論を最適なベイズエージェントの推論と比較しており、合理的分析からの逸脱は問題視されていた。
しかしながら、非ノルム的ヒューリスティックスへの人間の依存は、ある状況において有利であることを示すかもしれない。
人間の直観が理想的な統計的合理性を超えたシナリオを考察する。
2つの実験において、両変数の可視化から既知のデータ生成モデルのパラメータを特徴付ける際の個人の精度について検討した。
以上の結果より, 統計モデルに比べ, 被験者の精度は低いものの, ベイジアン剤, 特に極端な試料に直面する場合, 成績は良好であることが示唆された。
参加者は、ノイズの多いビジュアライゼーションをフィルタするために、内部モデルを頼りにしているようで、その結果、スプリアスデータに対するレジリエンスが改善された。
しかし,参加者は自信過剰を示し,不確実性評価に苦慮した。
また、統計機械よりも高いばらつきを示した。
その結果,合理性から外れた場合でも,可視化に対するアナリストの反応が有利である可能性が示唆された。
これらの結果は、視覚分析ツールの設計に意味を持ち、統計モデルと分析者の直観を統合する方法の新しい視点を提供し、推論と意思決定を改善した。
この論文のデータと資料はhttps://osf.io/qmfv6.comで公開されている。
関連論文リスト
- Utilizing Adversarial Examples for Bias Mitigation and Accuracy Enhancement [3.0820287240219795]
本稿では,コンピュータビジョンモデルにおけるバイアスを軽減するための新しい手法を提案する。
提案手法は,カリキュラム学習フレームワークと詳細な逆数損失を組み合わせることで,逆数例を用いてモデルを微調整する。
我々は,定性評価と定量的評価を併用し,従来の方法と比較してバイアス緩和と精度の向上を実証した。
論文 参考訳(メタデータ) (2024-04-18T00:41:32Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Visual Validation versus Visual Estimation: A Study on the Average Value
in Scatterplots [11.15435671066952]
個人がデータに適合する統計モデルを視覚的に検証する能力について検討する。
人々がどのようにモデルを視覚的に検証できるか、その性能が視覚的および計算的推定とどのように比較できるかは分かっていない。
論文 参考訳(メタデータ) (2023-07-18T15:13:15Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Bayesian Modeling of Language-Evoked Event-Related Potentials [0.0]
本稿では, 単語素因とニューラル応答を関連づけた実験データを用いて, 事象関連電位を解析するためのベイズ的アプローチを提案する。
本モデルでは,単語代入が事象関連ポテンシャルのほとんどの構成要素に与える影響を推定し,よりリッチなデータ記述を提供する。
論文 参考訳(メタデータ) (2022-07-07T15:58:17Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Statistical quantification of confounding bias in predictive modelling [0.0]
未確立モデルと完全構築モデルのnull仮説を探索する部分的および完全共創テストを提案する。
このテストは、非正規および非線形依存の予測であっても、I型エラーと高い統計的パワーに対して厳格な制御を提供する。
論文 参考訳(メタデータ) (2021-11-01T10:35:24Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction [49.254162397086006]
画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
論文 参考訳(メタデータ) (2020-07-23T20:39:40Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。