論文の概要: Pyreal: A Framework for Interpretable ML Explanations
- arxiv url: http://arxiv.org/abs/2312.13084v1
- Date: Wed, 20 Dec 2023 15:04:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 15:15:32.759196
- Title: Pyreal: A Framework for Interpretable ML Explanations
- Title(参考訳): Pyreal: 解釈可能なML説明のためのフレームワーク
- Authors: Alexandra Zytek, Wei-En Wang, Dongyu Liu, Laure Berti-Equille, Kalyan
Veeramachaneni
- Abstract要約: Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
- 参考スコア(独自算出の注目度): 51.14710806705126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Users in many domains use machine learning (ML) predictions to help them make
decisions. Effective ML-based decision-making often requires explanations of ML
models and their predictions. While there are many algorithms that explain
models, generating explanations in a format that is comprehensible and useful
to decision-makers is a nontrivial task that can require extensive development
overhead. We developed Pyreal, a highly extensible system with a corresponding
Python implementation for generating a variety of interpretable ML
explanations. Pyreal converts data and explanations between the feature spaces
expected by the model, relevant explanation algorithms, and human users,
allowing users to generate interpretable explanations in a low-code manner. Our
studies demonstrate that Pyreal generates more useful explanations than
existing systems while remaining both easy-to-use and efficient.
- Abstract(参考訳): 多くのドメインのユーザは、機械学習(ML)予測を使用して意思決定を支援する。
効果的なMLベースの意思決定は、しばしばMLモデルとその予測の説明を必要とする。
モデルを説明するアルゴリズムはたくさんありますが、意思決定者にとって分かりやすく有用なフォーマットで説明を生成することは、開発オーバーヘッドの大きい非自明な作業です。
我々は,多種多様な解釈可能なML記述を生成するためのPython実装を備えた拡張性の高いシステムであるPyrealを開発した。
pyrealは、モデルが期待する機能空間、関連する説明アルゴリズム、および人間ユーザ間のデータと説明を変換し、ユーザはローコードの方法で解釈可能な説明を生成することができる。
我々の研究は、Pyrealが既存のシステムよりも有用でありながら、使いやすくて効率的であることを示す。
関連論文リスト
- Distance-Restricted Explanations: Theoretical Underpinnings & Efficient Implementation [19.22391463965126]
機械学習(ML)のいくつかの用途には、高い評価と安全性クリティカルなアプリケーションが含まれる。
本稿では,論理ベースの説明器の性能向上のための新しいアルゴリズムについて検討する。
論文 参考訳(メタデータ) (2024-05-14T03:42:33Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Interpretability at Scale: Identifying Causal Mechanisms in Alpaca [62.65877150123775]
本研究では、Boundless DASを用いて、命令に従う間、大規模言語モデルにおける解釈可能な因果構造を効率的に探索する。
私たちの発見は、成長し、最も広くデプロイされている言語モデルの内部構造を忠実に理解するための第一歩です。
論文 参考訳(メタデータ) (2023-05-15T17:15:40Z) - Logic-Based Explainability in Machine Learning [0.0]
最も成功した機械学習モデルの運用は、人間の意思決定者にとって理解できない。
近年,MLモデルを説明するためのアプローチの開発が試みられている。
本稿では,MLモデルの厳密なモデルに基づく説明を計算するための研究成果について概説する。
論文 参考訳(メタデータ) (2022-10-24T13:43:07Z) - Local Interpretable Model Agnostic Shap Explanations for machine
learning models [0.0]
局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
論文 参考訳(メタデータ) (2022-10-10T10:07:27Z) - OmniXAI: A Library for Explainable AI [98.07381528393245]
eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
論文 参考訳(メタデータ) (2022-06-01T11:35:37Z) - Foundations of Symbolic Languages for Model Interpretability [2.3361634876233817]
本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
論文 参考訳(メタデータ) (2021-10-05T21:56:52Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。