論文の概要: Interpretability and Explainability: A Machine Learning Zoo Mini-tour
- arxiv url: http://arxiv.org/abs/2012.01805v1
- Date: Thu, 3 Dec 2020 10:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-24 00:47:42.956206
- Title: Interpretability and Explainability: A Machine Learning Zoo Mini-tour
- Title(参考訳): 解釈可能性と説明可能性: 機械学習のZoo Mini-Tour
- Authors: Ri\v{c}ards Marcinkevi\v{c}s and Julia E. Vogt
- Abstract要約: 解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
- 参考スコア(独自算出の注目度): 4.56877715768796
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this review, we examine the problem of designing interpretable and
explainable machine learning models. Interpretability and explainability lie at
the core of many machine learning and statistical applications in medicine,
economics, law, and natural sciences. Although interpretability and
explainability have escaped a clear universal definition, many techniques
motivated by these properties have been developed over the recent 30 years with
the focus currently shifting towards deep learning methods. In this review, we
emphasise the divide between interpretability and explainability and illustrate
these two different research directions with concrete examples of the
state-of-the-art. The review is intended for a general machine learning
audience with interest in exploring the problems of interpretation and
explanation beyond logistic regression or random forest variable importance.
This work is not an exhaustive literature survey, but rather a primer focusing
selectively on certain lines of research which the authors found interesting or
informative.
- Abstract(参考訳): 本稿では,解釈可能かつ説明可能な機械学習モデルの設計問題について検討する。
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
解釈可能性と説明可能性は明らかに普遍的な定義を免れたが、これらの特性に動機づけられた多くの技術は、過去30年間で開発され、現在ディープラーニングの手法に焦点が移っている。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
このレビューは、ロジスティック回帰やランダムな森林変数の重要性を超えた解釈と説明の問題を探求することに関心を持つ一般機械学習の聴衆を対象としている。
この研究は、徹底した文献調査ではなく、著者が興味をそそる、あるいは有意義な研究に選択的に焦点を絞ったプライマーである。
関連論文リスト
- Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - On the Relationship Between Interpretability and Explainability in Machine Learning [2.828173677501078]
解釈可能性と説明可能性は、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Local Interpretations for Explainable Natural Language Processing: A Survey [5.717407321642629]
本研究では,自然言語処理(NLP)タスクにおけるディープニューラルネットワークの解釈可能性を改善するための様々な手法について検討する。
本研究のはじめに,解釈可能性という用語の定義とその諸側面について,包括的に議論する。
論文 参考訳(メタデータ) (2021-03-20T02:28:33Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - A Survey on Neural Network Interpretability [25.27545364222555]
解釈性は、深層ネットワークが他の研究分野で強力なツールになるのに望ましい特性である。
本研究では,エンゲージメントのタイプ(パッシブ対アクティブ解釈アプローチ),説明のタイプ,焦点の3次元に整理した新しい分類法を提案する。
論文 参考訳(メタデータ) (2020-12-28T15:09:50Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。