論文の概要: Quantifying Visual Properties of GAM Shape Plots: Impact on Perceived Cognitive Load and Interpretability
- arxiv url: http://arxiv.org/abs/2409.16870v1
- Date: Wed, 25 Sep 2024 12:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 03:55:18.709220
- Title: Quantifying Visual Properties of GAM Shape Plots: Impact on Perceived Cognitive Load and Interpretability
- Title(参考訳): GAM形状プロットの視覚特性の定量化:認知的負荷と解釈可能性の影響
- Authors: Sven Kruschel, Lasse Bohlen, Julian Rosenberger, Patrick Zschech, Mathias Kraus,
- Abstract要約: GAM(Generalized Additive Models)は、機械学習のパフォーマンスと解釈可能性のバランスを提供する。
本研究は,GAM形状プロットの視覚特性と認知負荷の関係について検討した。
我々は,認知負荷を予測するための実用的なツールを提供するキンクの数に基づくシンプルなモデルを開発する。
- 参考スコア(独自算出の注目度): 3.738325076054202
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Generalized Additive Models (GAMs) offer a balance between performance and interpretability in machine learning. The interpretability aspect of GAMs is expressed through shape plots, representing the model's decision-making process. However, the visual properties of these plots, e.g. number of kinks (number of local maxima and minima), can impact their complexity and the cognitive load imposed on the viewer, compromising interpretability. Our study, including 57 participants, investigates the relationship between the visual properties of GAM shape plots and cognitive load they induce. We quantify various visual properties of shape plots and evaluate their alignment with participants' perceived cognitive load, based on 144 plots. Our results indicate that the number of kinks metric is the most effective, explaining 86.4% of the variance in users' ratings. We develop a simple model based on number of kinks that provides a practical tool for predicting cognitive load, enabling the assessment of one aspect of GAM interpretability without direct user involvement.
- Abstract(参考訳): GAM(Generalized Additive Models)は、機械学習のパフォーマンスと解釈可能性のバランスを提供する。
GAMの解釈可能性の側面は、モデルの意思決定プロセスを表す形状プロットを通して表現される。
しかし、これらのプロットの視覚的特性(例えば、局所的な最大値と最小値)は、その複雑さと視聴者に課される認知的負荷に影響を与え、解釈可能性を向上させる。
参加者57名を含む本研究では,GAM形状プロットの視覚特性と認知負荷との関連について検討した。
形状プロットの様々な視覚的特性を定量化し,144個のプロットに基づいて参加者の認知的負荷との整合性を評価する。
以上の結果から, ユーザの評価値の86.4%は, キンクス測定値が最も有効であることが示唆された。
我々は,認知的負荷を予測するための実用的なツールを提供するキンク数に基づくシンプルなモデルを構築し,ユーザに直接関与することなくGAMの解釈可能性の1つの側面を評価する。
関連論文リスト
- VisGraphVar: A Benchmark Generator for Assessing Variability in Graph Analysis Using Large Vision-Language Models [1.597617022056624]
LVLM(Large Vision-Language Models)は、抽象的な視覚タスクに取り組む能力がますます高まっている。
VisGraphVarは7つのタスクカテゴリのグラフ画像を生成することができる、カスタマイズ可能なベンチマークジェネレータである。
画像の視覚特性の変化(例えばノードのラベル付けやレイアウト)と視覚的不完全さの意図的な含意がモデルの性能に大きく影響することを示す。
論文 参考訳(メタデータ) (2024-11-22T10:10:53Z) - RealCQA-V2 : Visual Premise Proving A Manual COT Dataset for Charts [2.9201864249313383]
グラフ質問応答のプロセスを洗練するための新しいタスクであるVisual Premise Provingを紹介する。
この手法は従来の精度に基づく評価手法から逸脱したものである。
データ検索とグラフの構造的理解の両方に習熟性を示すモデルが提案される。
論文 参考訳(メタデータ) (2024-10-29T19:32:53Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Assessing Graphical Perception of Image Embedding Models using Channel Effectiveness [20.269583912221734]
画像埋め込みモデルの視覚的知覚を評価するための新しい評価フレームワークを提案する。
チャート理解のために,様々な視覚チャネルの精度と識別可能性という,チャネルの有効性の2つの主な側面について検討する。
CLIPモデルを用いた実験では、チャンネルの精度が人間と異なることが分かり、長さ、傾き、曲率などのチャンネルで独自の識別性を示す。
論文 参考訳(メタデータ) (2024-07-30T14:22:13Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Towards the Visualization of Aggregated Class Activation Maps to Analyse
the Global Contribution of Class Features [0.47248250311484113]
クラスアクティベーションマップ(CAM)は、分類に寄与するデータサンプルの各機能の重要性を視覚化する。
複数のサンプルからCAMを集約し,意味的に構造化されたデータの分類のグローバルな説明を示す。
我々のアプローチでは,分析者が高次元データの重要な特徴を検出し,世界的説明の可視化に基づいてAIモデルに調整を導出することができる。
論文 参考訳(メタデータ) (2023-07-29T11:13:11Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - AttriMeter: An Attribute-guided Metric Interpreter for Person
Re-Identification [100.3112429685558]
Person ReIDシステムは、2人とのマッチング時にのみ距離や類似性を提供します。
CNN ベースの ReID モデルの結果を意味的に,定量的に説明する Attribute-Guided Metric Interpreter を提案する。
論文 参考訳(メタデータ) (2021-03-02T03:37:48Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - A Meta-Bayesian Model of Intentional Visual Search [0.0]
本稿では,分類的知覚とササード計画の根底にある神経機構のベイズ的解釈を取り入れたビジュアルサーチの計算モデルを提案する。
擬似行動と人的行動の有意義な比較を可能にするため、参加者は視線に追従する窓から隠蔽されたMNIST桁を分類する必要がある。
本モデルは,観察された人間の行動から主観的パラメータを回収し,高い解釈可能性を維持しながら,分類精度などの人間の行動指標を再カプセル化することができる。
論文 参考訳(メタデータ) (2020-06-05T16:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。