論文の概要: Micro-entries: Encouraging Deeper Evaluation of Mental Models Over Time
for Interactive Data Systems
- arxiv url: http://arxiv.org/abs/2009.01282v1
- Date: Wed, 2 Sep 2020 18:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 20:05:24.481897
- Title: Micro-entries: Encouraging Deeper Evaluation of Mental Models Over Time
for Interactive Data Systems
- Title(参考訳): マイクロエンターテイメント:インタラクティブデータシステムにおける時間的メンタルモデルのより深い評価
- Authors: Jeremy E. Block, Eric D. Ragan
- Abstract要約: 本稿では,ユーザによるシステム論理のメンタルモデルの評価について論じる。
メンタルモデルは、キャプチャと分析が難しい。
ユーザーが何を知り、どのように知っているかを説明することで、研究者は構造化された時間順の洞察を集めることができる。
- 参考スコア(独自算出の注目度): 7.578368459974474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many interactive data systems combine visual representations of data with
embedded algorithmic support for automation and data exploration. To
effectively support transparent and explainable data systems, it is important
for researchers and designers to know how users understand the system. We
discuss the evaluation of users' mental models of system logic. Mental models
are challenging to capture and analyze. While common evaluation methods aim to
approximate the user's final mental model after a period of system usage, user
understanding continuously evolves as users interact with a system over time.
In this paper, we review many common mental model measurement techniques,
discuss tradeoffs, and recommend methods for deeper, more meaningful evaluation
of mental models when using interactive data analysis and visualization
systems. We present guidelines for evaluating mental models over time that
reveal the evolution of specific model updates and how they may map to the
particular use of interface features and data queries. By asking users to
describe what they know and how they know it, researchers can collect
structured, time-ordered insight into a user's conceptualization process while
also helping guide users to their own discoveries.
- Abstract(参考訳): 多くのインタラクティブなデータシステムは、データの視覚的表現と、自動化とデータ探索のための組込みアルゴリズムサポートを組み合わせる。
透明で説明可能なデータシステムを効果的にサポートするためには、研究者やデザイナーがシステムの理解方法を知ることが重要である。
システム論理におけるユーザの心的モデルの評価について考察する。
メンタルモデルは、キャプチャと分析が難しい。
一般的な評価手法は、システム使用の期間を経て、ユーザの最終的なメンタルモデルを近似することを目的としているが、ユーザが時間とともにシステムと対話するにつれて、ユーザの理解は継続的に進化する。
本稿では,インタラクティブなデータ分析と可視化システムを用いて,多くのメンタルモデル計測手法をレビューし,トレードオフについて議論し,より深く,より有意義なメンタルモデル評価方法を提案する。
具体的なモデル更新の進化と、それらがインターフェイス機能やデータクエリの特定の利用にどのようにマップされるかを明らかにするために、メンタルモデルを評価するためのガイドラインを提示する。
ユーザが何を知り、どのように知っているかを説明することで、研究者はユーザの概念化プロセスに関する構造化された時間順の洞察を集めると同時に、ユーザ自身の発見をガイドすることができる。
関連論文リスト
- Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Lessons Learned from EXMOS User Studies: A Technical Report Summarizing
Key Takeaways from User Studies Conducted to Evaluate The EXMOS Platform [5.132827811038276]
信頼,理解可能性,モデル改善の3つの重要な側面に異なる説明型の影響を明らかにすることを目的とした2つのユーザスタディ。
その結果,データ構成の複雑なプロセスにおいて,ユーザを効果的に導くには,グローバルなモデル中心の説明だけでは不十分であることが示唆された。
本稿では、説明によって駆動される対話型機械学習システムの開発に不可欠な意味について述べる。
論文 参考訳(メタデータ) (2023-10-03T14:04:45Z) - Understanding User Intent Modeling for Conversational Recommender
Systems: A Systematic Literature Review [1.3630870408844922]
我々は,会話レコメンデーションシステムの設計によく使用されるモデルについて,系統的な文献レビューを行った。
我々は,研究者がシステムに最も適したモデルを選択するのを支援するための意思決定モデルを開発した。
本研究は,より効果的でパーソナライズされた対話型レコメンデーションシステムの開発を支援する,ユーザ意図モデリングの実践的洞察と包括的理解に寄与する。
論文 参考訳(メタデータ) (2023-08-05T22:50:21Z) - User Simulation for Evaluating Information Access Systems [38.48048183731099]
インタラクティブな知能システムの有効性を評価することは 複雑な科学的課題です
本書は,評価に特化して設計されたユーザシミュレーション技術について,詳細な理解を提供する。
ユーザシミュレータを設計するための一般的なフレームワークと、検索エンジン、レコメンダシステム、会話アシスタントとのユーザインタラクションをシミュレートする特定のモデルとアルゴリズムの両方をカバーする。
論文 参考訳(メタデータ) (2023-06-14T14:54:06Z) - A User-Centered, Interactive, Human-in-the-Loop Topic Modelling System [32.065158970382036]
ヒューマン・イン・ザ・ループ(Human-in-the-loop)トピック・モデリングは、ユーザの知識をモデリングプロセスに取り入れ、モデルを反復的に洗練することを可能にする。
最近の研究では、ユーザフィードバックの価値が実証されているが、検討すべき問題がまだ残っている。
そこで我々は,ユーザフレンドリなインタフェースを備えた対話型話題モデリングシステムを開発した。
論文 参考訳(メタデータ) (2023-04-04T13:05:10Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - What is wrong with you?: Leveraging User Sentiment for Automatic Dialog
Evaluation [73.03318027164605]
本稿では,次のユーザの発話から自動的に抽出できる情報をプロキシとして利用して,前のシステム応答の質を測定することを提案する。
本モデルは,実際のユーザおよび有償ユーザから収集した音声と書面の両方のオープンドメインダイアログコーパスを一般化する。
論文 参考訳(メタデータ) (2022-03-25T22:09:52Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis [0.0]
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
論文 参考訳(メタデータ) (2020-01-11T17:15:58Z) - A System for Real-Time Interactive Analysis of Deep Learning Training [66.06880335222529]
現在利用可能なシステムは、トレーニングプロセスが始まる前に指定しなければならないログデータのみを監視することに限定されている。
本稿では,リアルタイム情報を生成するライブプロセス上で対話型クエリを実行可能にするシステムを提案する。
論文 参考訳(メタデータ) (2020-01-05T11:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。