論文の概要: Contextual Importance and Utility in Python: New Functionality and Insights with the py-ciu Package
- arxiv url: http://arxiv.org/abs/2408.09957v1
- Date: Mon, 19 Aug 2024 12:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 16:13:49.794622
- Title: Contextual Importance and Utility in Python: New Functionality and Insights with the py-ciu Package
- Title(参考訳): Pythonにおけるコンテキストの重要性とユーティリティ - py-ciuパッケージによる新機能と洞察
- Authors: Kary Främling,
- Abstract要約: 本稿では、文脈的重要性と実用性(CIU)モデルに依存しない、ポストホックな説明手法のTextttpy-ciu Python実装について述べる。
- 参考スコア(独自算出の注目度): 1.3778851745408134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The availability of easy-to-use and reliable software implementations is important for allowing researchers in academia and industry to test, assess and take into use eXplainable AI (XAI) methods. This paper describes the \texttt{py-ciu} Python implementation of the Contextual Importance and Utility (CIU) model-agnostic, post-hoc explanation method and illustrates capabilities of CIU that go beyond the current state-of-the-art that could be useful for XAI practitioners in general.
- Abstract(参考訳): 容易で信頼性の高いソフトウェア実装の提供は、学術や産業の研究者がeXplainable AI(XAI)メソッドをテスト、評価、利用できるようにする上で重要である。
本稿では,CIU(Contextual Importance and Utility)モデルに依存しない,ポストホックな説明手法の<texttt{py-ciu} Python実装について述べる。
関連論文リスト
- A Comprehensive Guide to Combining R and Python code for Data Science, Machine Learning and Reinforcement Learning [42.350737545269105]
機械学習、ディープラーニング、強化学習プロジェクトを構築するために、PythonのScikit-learn、pytorch、OpenAIのジムライブラリを簡単に実行する方法を示します。
論文 参考訳(メタデータ) (2024-07-19T23:01:48Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - pyvene: A Library for Understanding and Improving PyTorch Models via
Interventions [79.72930339711478]
$textbfpyvene$は、さまざまなPyTorchモジュールに対するカスタマイズ可能な介入をサポートするオープンソースライブラリである。
私たちは、$textbfpyvene$が、ニューラルモデルへの介入を実行し、他のモデルとインターバルされたモデルを共有するための統一されたフレームワークを提供する方法を示します。
論文 参考訳(メタデータ) (2024-03-12T16:46:54Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - PyGOD: A Python Library for Graph Outlier Detection [56.33769221859135]
PyGODは、グラフデータの外れ値を検出するオープンソースライブラリである。
外れ値検出のための主要なグラフベースのメソッドを幅広くサポートしています。
PyGODはBSD 2-Clauseライセンスの下でhttps://pygod.orgとPython Package Index (PyPI)でリリースされている。
論文 参考訳(メタデータ) (2022-04-26T06:15:21Z) - pymdp: A Python library for active inference in discrete state spaces [52.85819390191516]
pymdpはPythonでアクティブな推論をシミュレートするオープンソースパッケージである。
我々は,POMDPによるアクティブな推論をシミュレートする,最初のオープンソースパッケージを提供する。
論文 参考訳(メタデータ) (2022-01-11T12:18:44Z) - Beyond Importance Scores: Interpreting Tabular ML by Visualizing Feature
Semantics [17.410093908967976]
機械学習(ML)モデルが批判的な意思決定に広く利用されているため、解釈可能性(interpretability)は活発な研究トピックになりつつある。
表データに使われている既存の解釈可能性の手法の多くは、特徴重要点のみを報告している。
我々は,新しいグローバル解釈可能性法であるFeature Vectorsを導入することで,この制限に対処する。
論文 参考訳(メタデータ) (2021-11-10T19:42:33Z) - pysentimiento: A Python Toolkit for Opinion Mining and Social NLP tasks [0.2826977330147589]
pysentimientoは意見マイニングやその他のソーシャルNLPタスク用に設計されたPythonツールキットである。
このオープンソースライブラリは、簡単に使えるPythonライブラリで、スペイン語、英語、イタリア語、ポルトガル語の最先端モデルを提供する。
各種タスク,言語,データセットにまたがる事前学習言語モデルの総合的な性能評価を行う。
論文 参考訳(メタデータ) (2021-06-17T13:15:07Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z) - EXPATS: A Toolkit for Explainable Automated Text Scoring [2.299617836036273]
ユーザが様々なATSモデルを迅速に開発、実験できるオープンソースフレームワークであるEXPATSについて紹介する。
また、このツールキットはLanguage Interpretability Tool(LIT)とシームレスに統合できるため、モデルとその予測を解釈および視覚化できます。
論文 参考訳(メタデータ) (2021-04-07T19:29:06Z) - Landscape of R packages for eXplainable Artificial Intelligence [4.91155110560629]
この記事は主にRで利用可能なツールに特化していますが、Pythonコードの統合が容易であるため、Pythonから最も人気のあるライブラリの例も紹介します。
論文 参考訳(メタデータ) (2020-09-24T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。