論文の概要: The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems
- arxiv url: http://arxiv.org/abs/2009.06675v1
- Date: Mon, 14 Sep 2020 18:15:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:58:50.896761
- Title: The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems
- Title(参考訳): 解釈・説明可能な機械学習システムにおける個人差の役割
- Authors: Lydia P. Gleaves, Reva Schwartz, David A. Broniatowski
- Abstract要約: 本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
- 参考スコア(独自算出の注目度): 0.3169089186688223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is increased interest in assisting non-expert audiences to effectively
interact with machine learning (ML) tools and understand the complex output
such systems produce. Here, we describe user experiments designed to study how
individual skills and personality traits predict interpretability,
explainability, and knowledge discovery from ML generated model output. Our
work relies on Fuzzy Trace Theory, a leading theory of how humans process
numerical stimuli, to examine how different end users will interpret the output
they receive while interacting with the ML system. While our sample was small,
we found that interpretability -- being able to make sense of system output --
and explainability -- understanding how that output was generated -- were
distinct aspects of user experience. Additionally, subjects were more able to
interpret model output if they possessed individual traits that promote
metacognitive monitoring and editing, associated with more detailed, verbatim,
processing of ML output. Finally, subjects who are more familiar with ML
systems felt better supported by them and more able to discover new patterns in
data; however, this did not necessarily translate to meaningful insights. Our
work motivates the design of systems that explicitly take users' mental
representations into account during the design process to more effectively
support end user requirements.
- Abstract(参考訳): 非専門家が機械学習(ML)ツールと効果的に対話し、そのようなシステムが生み出す複雑な出力を理解するのを支援することへの関心が高まっている。
本稿では,ML生成モデルからの解釈可能性,説明可能性,知識発見を個人的スキルと性格特性がどのように予測するかを研究するために設計されたユーザ実験について述べる。
我々の研究は、人間が数値的な刺激をどのように処理するかという主要な理論であるファジィトレース理論に依存しており、エンドユーザーがmlシステムと相互作用しながら受信した出力をどのように解釈するかを調べている。
サンプルは小さかったが、システムのアウトプットと説明可能性を理解して、そのアウトプットがどのように生成されたかを理解することが、ユーザエクスペリエンスの異なる側面であることが分かりました。
さらに、メタ認知的モニタリングと編集を促進する個々の特徴が、より詳細で冗長なML出力の処理に関連付けられている場合、被験者はモデル出力をより解釈することができた。
最後に、mlシステムに精通している被験者は、彼らによってよりサポートされ、データに新しいパターンを見つけることができると感じた。
私たちの仕事は、設計プロセス中にユーザのメンタル表現を明示的に考慮し、エンドユーザーの要求をより効果的にサポートするシステムの設計を動機付けます。
関連論文リスト
- Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning [5.159407277301709]
我々は、機械学習のアウトプットを規範的に健全な領域で解釈するには、第3のタイプの説明に訴える必要があると論じている。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
論文 参考訳(メタデータ) (2024-09-05T15:47:04Z) - From Feature Importance to Natural Language Explanations Using LLMs with RAG [4.204990010424084]
大規模言語モデル(LLM)の応答に外部知識リポジトリを活用して,トレーサブルな質問応答を導入する。
この知識リポジトリは、高レベルの特徴、特徴の重要性、代替確率を含む、モデルの出力に関するコンテキストの詳細を含む。
社会的・因果的・選択的・コントラスト的な4つの重要な特徴を、人間の説明に関する社会科学研究から一発のプロンプトへと統合し、応答生成過程を導く。
論文 参考訳(メタデータ) (2024-07-30T17:27:20Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。