論文の概要: Survey of explainable machine learning with visual and granular methods
beyond quasi-explanations
- arxiv url: http://arxiv.org/abs/2009.10221v1
- Date: Mon, 21 Sep 2020 23:39:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:35:20.862539
- Title: Survey of explainable machine learning with visual and granular methods
beyond quasi-explanations
- Title(参考訳): 擬似説明を超えた視覚的, 粒度的手法による説明可能な機械学習の探索
- Authors: Boris Kovalerchuk (1), Muhammad Aurangzeb Ahmad (2 and 3), Ankur
Teredesai (2 and 3) ((1) Department of Computer Science, Central Washington
University, USA (2) Department of Computer Science and Systems, University of
Washington Tacoma, USA (3) Kensci Inc., USA)
- Abstract要約: 我々は、MLで支配的な準説明から、粒度の視覚によって支えられるドメイン固有の説明に移行することに注力する。
この論文は、ジョンソン-リンデンシュトラウス補題に基づくn-D距離の低次元保存に関する理論的限界に関する結果を含む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper surveys visual methods of explainability of Machine Learning (ML)
with focus on moving from quasi-explanations that dominate in ML to
domain-specific explanation supported by granular visuals. ML interpretation is
fundamentally a human activity and visual methods are more readily
interpretable. While efficient visual representations of high-dimensional data
exist, the loss of interpretable information, occlusion, and clutter continue
to be a challenge, which lead to quasi-explanations. We start with the
motivation and the different definitions of explainability. The paper focuses
on a clear distinction between quasi-explanations and domain specific
explanations, and between explainable and an actually explained ML model that
are critically important for the explainability domain. We discuss foundations
of interpretability, overview visual interpretability and present several types
of methods to visualize the ML models. Next, we present methods of visual
discovery of ML models, with the focus on interpretable models, based on the
recently introduced concept of General Line Coordinates (GLC). These methods
take the critical step of creating visual explanations that are not merely
quasi-explanations but are also domain specific visual explanations while these
methods themselves are domain-agnostic. The paper includes results on
theoretical limits to preserve n-D distances in lower dimensions, based on the
Johnson-Lindenstrauss lemma, point-to-point and point-to-graph GLC approaches,
and real-world case studies. The paper also covers traditional visual methods
for understanding ML models, which include deep learning and time series
models. We show that many of these methods are quasi-explanations and need
further enhancement to become domain specific explanations. We conclude with
outlining open problems and current research frontiers.
- Abstract(参考訳): 本稿では、機械学習(ML)の視覚的説明可能性について、MLで支配的な準説明から、粒度の視覚によって支えられるドメイン固有の説明へと移行することに焦点を当てて検討する。
ML解釈は基本的に人間の活動であり、視覚的手法はより容易に解釈できる。
高次元データの効率的な視覚表現は存在するが、解釈可能な情報、オクルージョン、およびクラッタの喪失は依然として課題であり、準説明につながる。
まずは動機と説明可能性の異なる定義から始めます。
論文は、準説明とドメイン特化説明の明確な区別と、説明可能性ドメインにおいて極めて重要な、説明可能モデルと実際に説明可能なmlモデルとの区別に焦点を当てている。
本稿では,解釈可能性の基礎,視覚的解釈可能性について論じ,MLモデルを視覚化するためのいくつかの方法を提案する。
次に,最近導入された一般線座標(glc)の概念に基づき,解釈可能なモデルに着目したmlモデルの視覚的発見法を提案する。
これらの手法は、準説明であるだけでなく、ドメイン固有の視覚的説明である視覚的説明を作成するための重要なステップを取る。
この論文は、ジョンソン-リンデンシュトラウス補題、ポイント・ツー・ポイント・アンド・ポイント・ツー・グラフGLCアプローチ、実世界のケーススタディに基づく、低次元でのn-D距離の保存に関する理論的限界に関する結果を含む。
また、ディープラーニングや時系列モデルを含む、MLモデルを理解するための従来の視覚的手法についても取り上げる。
これらの手法の多くは準説明であり、ドメイン固有の説明となるためにさらなる拡張が必要であることを示す。
オープンな問題と現在の研究のフロンティアを概説して締めくくる。
関連論文リスト
- MOUNTAINEER: Topology-Driven Visual Analytics for Comparing Local Explanations [6.835413642522898]
トポロジカルデータ解析(TDA)は、属性を一様グラフ表現に変換するために使用できるため、この領域で有効な方法である。
我々は、新しいトポロジ駆動視覚分析ツールであるMountaineerを紹介し、機械学習の実践者がこれらの表現をインタラクティブに分析し比較できるようにする。
我々は、Mountaineerによって、ブラックボックスMLの説明と、異なる説明の相違の原因を識別する領域を比較できることを示す。
論文 参考訳(メタデータ) (2024-06-21T19:28:50Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - A Guide to Feature Importance Methods for Scientific Inference [10.31256905045161]
特徴重要度(FI)法はデータ生成過程(DGP)に有用な洞察を与える
本稿では,FI手法の異なる解釈を理解するための包括的ガイドとして機能する。
論文 参考訳(メタデータ) (2024-04-19T13:01:59Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation [17.485732906337507]
本稿では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下でのケーススタディを示す。
より正確なモデル認識説明を生成するための新しい手法を提案する。
クリーンなデータセットを得るために,アーティファクト画像を分離するためのマルチビュークラスタリング戦略を提案する。
論文 参考訳(メタデータ) (2021-08-27T09:55:53Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Explain and Improve: LRP-Inference Fine-Tuning for Image Captioning
Models [82.3793660091354]
本稿では,注意を可視化する以外に,注意機構を付加した画像キャプションモデルの予測について分析する。
我々は,注意機構を備えた画像キャプションモデルに適したレイヤワイド関連伝搬(LRP)と勾配に基づく説明法を開発した。
論文 参考訳(メタデータ) (2020-01-04T05:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。