論文の概要: The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems
- arxiv url: http://arxiv.org/abs/2009.06675v1
- Date: Mon, 14 Sep 2020 18:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:58:50.896761
- Title: The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems
- Title(参考訳): 解釈・説明可能な機械学習システムにおける個人差の役割
- Authors: Lydia P. Gleaves, Reva Schwartz, David A. Broniatowski
- Abstract要約: 本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
- 参考スコア(独自算出の注目度): 0.3169089186688223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is increased interest in assisting non-expert audiences to effectively
interact with machine learning (ML) tools and understand the complex output
such systems produce. Here, we describe user experiments designed to study how
individual skills and personality traits predict interpretability,
explainability, and knowledge discovery from ML generated model output. Our
work relies on Fuzzy Trace Theory, a leading theory of how humans process
numerical stimuli, to examine how different end users will interpret the output
they receive while interacting with the ML system. While our sample was small,
we found that interpretability -- being able to make sense of system output --
and explainability -- understanding how that output was generated -- were
distinct aspects of user experience. Additionally, subjects were more able to
interpret model output if they possessed individual traits that promote
metacognitive monitoring and editing, associated with more detailed, verbatim,
processing of ML output. Finally, subjects who are more familiar with ML
systems felt better supported by them and more able to discover new patterns in
data; however, this did not necessarily translate to meaningful insights. Our
work motivates the design of systems that explicitly take users' mental
representations into account during the design process to more effectively
support end user requirements.
- Abstract(参考訳): 非専門家が機械学習(ML)ツールと効果的に対話し、そのようなシステムが生み出す複雑な出力を理解するのを支援することへの関心が高まっている。
本稿では,ML生成モデルからの解釈可能性,説明可能性,知識発見を個人的スキルと性格特性がどのように予測するかを研究するために設計されたユーザ実験について述べる。
我々の研究は、人間が数値的な刺激をどのように処理するかという主要な理論であるファジィトレース理論に依存しており、エンドユーザーがmlシステムと相互作用しながら受信した出力をどのように解釈するかを調べている。
サンプルは小さかったが、システムのアウトプットと説明可能性を理解して、そのアウトプットがどのように生成されたかを理解することが、ユーザエクスペリエンスの異なる側面であることが分かりました。
さらに、メタ認知的モニタリングと編集を促進する個々の特徴が、より詳細で冗長なML出力の処理に関連付けられている場合、被験者はモデル出力をより解釈することができた。
最後に、mlシステムに精通している被験者は、彼らによってよりサポートされ、データに新しいパターンを見つけることができると感じた。
私たちの仕事は、設計プロセス中にユーザのメンタル表現を明示的に考慮し、エンドユーザーの要求をより効果的にサポートするシステムの設計を動機付けます。
関連論文リスト
- Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z) - A general approach for Explanations in terms of Middle Level Features [0.0]
本稿では,入力特徴量の観点から説明を構築可能なXAI一般手法を提案する。
MLF(Middle-Level input Features)は、ユーザにとってより健全で理解しやすい入力特性を表す。
2つの異なるデータセットと3つの異なるタイプのMLFを用いて、我々のアプローチを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-09T12:51:40Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。