論文の概要: Explainability in Machine Learning: a Pedagogical Perspective
- arxiv url: http://arxiv.org/abs/2202.10335v1
- Date: Mon, 21 Feb 2022 16:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 11:08:27.907006
- Title: Explainability in Machine Learning: a Pedagogical Perspective
- Title(参考訳): 機械学習における説明可能性--教育的視点
- Authors: Andreas Bueff, Ioannis Papantonis, Auste Simkute, Vaishak Belle
- Abstract要約: 我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
- 参考スコア(独自算出の注目度): 9.393988089692947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the importance of integrating of explainability into machine learning,
at present, there are a lack of pedagogical resources exploring this.
Specifically, we have found a need for resources in explaining how one can
teach the advantages of explainability in machine learning. Often pedagogical
approaches in the field of machine learning focus on getting students prepared
to apply various models in the real world setting, but much less attention is
given to teaching students the various techniques one could employ to explain a
model's decision-making process. Furthermore, explainability can benefit from a
narrative structure that aids one in understanding which techniques are
governed by which questions about the data.
We provide a pedagogical perspective on how to structure the learning process
to better impart knowledge to students and researchers in machine learning,
when and how to implement various explainability techniques as well as how to
interpret the results. We discuss a system of teaching explainability in
machine learning, by exploring the advantages and disadvantages of various
opaque and transparent machine learning models, as well as when to utilize
specific explainability techniques and the various frameworks used to structure
the tools for explainability. Among discussing concrete assignments, we will
also discuss ways to structure potential assignments to best help students
learn to use explainability as a tool alongside any given machine learning
application.
Data science professionals completing the course will have a birds-eye view
of a rapidly developing area and will be confident to deploy machine learning
more widely. A preliminary analysis on the effectiveness of a recently
delivered course following the structure presented here is included as evidence
supporting our pedagogical approach.
- Abstract(参考訳): 機械学習に説明可能性を統合することの重要性を考えると、現在、これを探求する教育資源が不足している。
具体的には、機械学習で説明可能性の利点をいかに教えるかを説明するためのリソースの必要性を見出した。
機械学習の分野での教育的アプローチは、学生が現実世界で様々なモデルを適用する準備をするのに焦点をあてることが多いが、モデルの意思決定プロセスを説明するために使える様々なテクニックを学生に教えることには、はるかに注意が払われる。
さらに、説明可能性は、データに関する質問によってどの技術が支配されているかを理解するのに役立つ物語構造から恩恵を受けることができる。
我々は,機械学習の学生や研究者によりよい知識を与えるための学習プロセスの構築方法,様々な説明可能性技術の実装方法,結果の解釈方法に関する教育的視点を提供する。
本稿では、さまざまな不透明かつ透明な機械学習モデルの利点と欠点を探求し、特定の説明可能性技術と、説明可能性のためのツールを構築するために使用される様々なフレームワークをいつ利用すべきかを論じる。
具体的課題について論じる中で、学生が特定の機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的課題を構成する方法についても論じる。
コースを修了したデータサイエンスの専門家は、急速に発展している分野の鳥眼図を持ち、機械学習をもっと広く展開する自信を持つだろう。
ここでは, 教育的アプローチを裏付けるエビデンスとして, 最近実施した授業の有効性に関する予備的分析を行った。
関連論文リスト
- Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning [5.159407277301709]
我々は、機械学習のアウトプットを規範的に健全な領域で解釈するには、第3のタイプの説明に訴える必要があると論じている。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
論文 参考訳(メタデータ) (2024-09-05T15:47:04Z) - An effect analysis of the balancing techniques on the counterfactual explanations of student success prediction models [0.0]
学習分析における主要な研究方向の1つは、様々な機械学習手法を用いて学習者の成功を予測することである。
いくつかのカウンターファクト生成手法は、多くの可能性を秘めているが、その特徴は効果的に動作可能で、因果的でなければならない。
本稿では, 対実説明法, 多目的対実説明法, 最近対実説明法など, 一般的に用いられている対実生成法の有効性を考察する。
論文 参考訳(メタデータ) (2024-08-01T16:19:08Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Explainable Machine Learning with Prior Knowledge: An Overview [1.1045760002858451]
機械学習モデルの複雑さは、より説明しやすいように研究を誘致している。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
論文 参考訳(メタデータ) (2021-05-21T07:33:22Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Machine Learning Explainability for External Stakeholders [27.677158604772238]
ブラックボックスを開き、機械学習アルゴリズムをより説明しやすいものにする声が増えている。
我々は,学者,産業専門家,法律学者,政策立案者らとともに,説明可能性に関する共通言語を開発するために1日間のワークショップを開催した。
本稿では、説明可能な機械学習の様々なケーススタディの概要、これらの研究からの教訓、オープンチャレンジについて議論する。
論文 参考訳(メタデータ) (2020-07-10T14:27:06Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。