論文の概要: OmniXAI: A Library for Explainable AI
- arxiv url: http://arxiv.org/abs/2206.01612v1
- Date: Wed, 1 Jun 2022 11:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 13:00:49.196803
- Title: OmniXAI: A Library for Explainable AI
- Title(参考訳): OmniXAI: 説明可能なAIのためのライブラリ
- Authors: Wenzhuo Yang and Hung Le and Silvio Savarese and Steven C.H. Hoi
- Abstract要約: eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介する。
オールニウェイで説明可能なAI機能と、さまざまな解釈可能な機械学習技術を提供する。
実践者にとってこのライブラリは、アプリケーションの説明を生成するために、使いやすく統合されたインターフェースを提供する。
- 参考スコア(独自算出の注目度): 98.07381528393245
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce OmniXAI, an open-source Python library of eXplainable AI (XAI),
which offers omni-way explainable AI capabilities and various interpretable
machine learning techniques to address the pain points of understanding and
interpreting the decisions made by machine learning (ML) in practice. OmniXAI
aims to be a one-stop comprehensive library that makes explainable AI easy for
data scientists, ML researchers and practitioners who need explanation for
various types of data, models and explanation methods at different stages of ML
process (data exploration, feature engineering, model development, evaluation,
and decision-making, etc). In particular, our library includes a rich family of
explanation methods integrated in a unified interface, which supports multiple
data types (tabular data, images, texts, time-series), multiple types of ML
models (traditional ML in Scikit-learn and deep learning models in
PyTorch/TensorFlow), and a range of diverse explanation methods including
"model-specific" and "model-agnostic" ones (such as feature-attribution
explanation, counterfactual explanation, gradient-based explanation, etc). For
practitioners, the library provides an easy-to-use unified interface to
generate the explanations for their applications by only writing a few lines of
codes, and also a GUI dashboard for visualization of different explanations for
more insights about decisions. In this technical report, we present OmniXAI's
design principles, system architectures, and major functionalities, and also
demonstrate several example use cases across different types of data, tasks,
and models.
- Abstract(参考訳): 我々は,eXplainable AI(XAI)のオープンソースPythonライブラリであるOmniXAIを紹介した。このライブラリは,全方向で説明可能なAI機能と,さまざまな解釈可能な機械学習技術を提供し,機械学習(ML)による意思決定の理解と解釈の問題点に対処する。
OmniXAIは、MLプロセスのさまざまな段階(データ探索、機能エンジニアリング、モデル開発、評価、意思決定など)におけるさまざまなデータ、モデル、説明方法の説明を必要とするデータサイエンティスト、ML研究者、実践者にとって、説明可能なAIを簡単にするワンストップの包括的なライブラリである。
具体的には、複数のデータ型(タブラルデータ、画像、テキスト、時系列)、複数のMLモデル(従来のPyTorch/TensorFlowのScikit-learnおよびディープラーニングモデルにおけるML)、"モデル固有"や"モデル非依存"(機能属性の説明、反ファクト的説明、勾配に基づく説明など)を含む、多種多様な説明方法を含む、統一インターフェースに統合された多種多様な説明方法群を含む。
実践者向けには、ライブラリは、数行のコードを記述するだけでアプリケーションの説明を生成するための使いやすい統一インターフェースと、さまざまな説明を視覚化し、意思決定に関するさらなる洞察を提供するguiダッシュボードを提供する。
本技術報告では,OmniXAIの設計原則,システムアーキテクチャ,主要機能について述べるとともに,さまざまな種類のデータ,タスク,モデルにまたがるいくつかの例を示す。
関連論文リスト
- Deep Fast Machine Learning Utils: A Python Library for Streamlined Machine Learning Prototyping [0.0]
Deep Fast Machine Learning Utils (DFMLU)ライブラリは、機械学習プロセスのアスペクトを自動化および拡張するために設計されたツールを提供する。
DFMLUはモデル開発とデータ処理をサポートする機能を提供します。
この原稿はDFMLUの機能の概要を示し、各ツールにPythonの例を提供している。
論文 参考訳(メタデータ) (2024-09-14T21:39:17Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - Declarative Reasoning on Explanations Using Constraint Logic Programming [12.039469573641217]
REASONXは制約論理プログラミング(CLP)に基づく説明法である
本稿では,ユーザに近いPythonレイヤとCLPレイヤで構成されるREASONXのアーキテクチャについて述べる。
REASONXのコア実行エンジンは論理理論の観点から宣言的意味論を持つPrologメタプログラムである。
論文 参考訳(メタデータ) (2023-09-01T12:31:39Z) - Xplique: A Deep Learning Explainability Toolbox [5.067377019157635]
我々は、説明可能性のためのソフトウェアライブラリXpliqueを開発した。
代表的な説明可能性手法と関連する評価指標を含んでいる。
コードはMITライセンスでライセンスされており、無料で利用できる。
論文 参考訳(メタデータ) (2022-06-09T10:16:07Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。