論文の概要: EFI: A Toolbox for Feature Importance Fusion and Interpretation in
Python
- arxiv url: http://arxiv.org/abs/2208.04343v1
- Date: Mon, 8 Aug 2022 18:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:51:23.207925
- Title: EFI: A Toolbox for Feature Importance Fusion and Interpretation in
Python
- Title(参考訳): EFI: Pythonのフィーチャー・コンパタンス・フュージョンと解釈のためのツールボックス
- Authors: Aayush Kumar, Jimiama Mafeni Mase, Divish Rengasamy, Benjamin
Rothwell, Mercedes Torres Torres, David A. Winkler, Grazziela P. Figueredo
- Abstract要約: Ensemble Feature Importance (EFI)は、機械学習(ML)研究者、ドメインエキスパート、意思決定者のためのオープンソースのPythonツールボックスである。
EFIは、頑健で正確な特徴重要性の定量化と、予測問題に対する特徴重要性のより信頼性の高い機械的解釈を提供する。
- 参考スコア(独自算出の注目度): 1.593222804814135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an open-source Python toolbox called Ensemble Feature
Importance (EFI) to provide machine learning (ML) researchers, domain experts,
and decision makers with robust and accurate feature importance quantification
and more reliable mechanistic interpretation of feature importance for
prediction problems using fuzzy sets. The toolkit was developed to address
uncertainties in feature importance quantification and lack of trustworthy
feature importance interpretation due to the diverse availability of machine
learning algorithms, feature importance calculation methods, and dataset
dependencies. EFI merges results from multiple machine learning models with
different feature importance calculation approaches using data bootstrapping
and decision fusion techniques, such as mean, majority voting and fuzzy logic.
The main attributes of the EFI toolbox are: (i) automatic optimisation of ML
algorithms, (ii) automatic computation of a set of feature importance
coefficients from optimised ML algorithms and feature importance calculation
techniques, (iii) automatic aggregation of importance coefficients using
multiple decision fusion techniques, and (iv) fuzzy membership functions that
show the importance of each feature to the prediction task. The key modules and
functions of the toolbox are described, and a simple example of their
application is presented using the popular Iris dataset.
- Abstract(参考訳): 本稿では,機械学習(ML)研究者,ドメイン専門家,意思決定者に対して,ファジィ集合を用いた予測問題において,より堅牢で正確な特徴重要量化と,より信頼性の高い特徴重要度解釈を行うための,EFI(Ensemble Feature Importance)と呼ばれるオープンソースのPythonツールボックスを提案する。
このツールキットは、機械学習アルゴリズム、特徴重要度計算方法、データセット依存の多様さにより、特徴重要度定量化の不確実性と信頼性の高い特徴重要度解釈の欠如に対処するために開発された。
EFIは、データブートストラップと平均、多数決、ファジィロジックといった決定融合技術を用いて、異なる特徴重要度計算アプローチを持つ複数の機械学習モデルから結果をマージする。
EFIツールボックスの主な属性は次のとおりである。
(i)MLアルゴリズムの自動最適化
(2)最適化MLアルゴリズムと特徴重要度計算手法から特徴重要度係数の集合を自動計算する。
(iii)多重決定融合法による重要度係数の自動集計と
(4)各特徴が予測課題に重要であることを示すファジィ・メンバシップ機能。
ツールボックスの重要なモジュールと関数が説明され、そのアプリケーションの簡単な例が人気のあるIrisデータセットを使って示されます。
関連論文リスト
- Efficient Network Traffic Feature Sets for IoT Intrusion Detection [0.0]
この研究は、複数のIoTネットワークデータセットで、Information Gain、Chi-Squared Test、Recursive Feature Elimination、Mean Absolute Deviation、Dispersion Ratioといった、さまざまな機能選択メソッドの組み合わせによって提供される機能セットを評価します。
より小さな特徴セットがMLモデルの分類性能とトレーニング時間の両方に与える影響を比較し,IoT侵入検出の計算効率を高めることを目的とした。
論文 参考訳(メタデータ) (2024-06-12T09:51:29Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Metric Tools for Sensitivity Analysis with Applications to Neural
Networks [0.0]
説明可能な人工知能(XAI)は、機械学習モデルによる予測の解釈を提供することを目的としている。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
$alpha$-curvesと呼ばれる新しいメトリクスの完全なファミリーが抽出される。
論文 参考訳(メタデータ) (2023-05-03T18:10:21Z) - Mechanistic Interpretation of Machine Learning Inference: A Fuzzy
Feature Importance Fusion Approach [0.39146761527401425]
機能の重要性を定量化するべきかについては、合意が得られていない。
現在の最先端のアンサンブル特徴量融合は、異なるアプローチによる結果を融合するためにクリップ技術を使用する。
ここでは、ファジィデータ融合法が、クリプス融合法のいくつかの重要な限界を克服する方法について述べる。
論文 参考訳(メタデータ) (2021-10-22T11:22:21Z) - AEFE: Automatic Embedded Feature Engineering for Categorical Features [4.310748698480341]
本稿では,カスタムパラダイム機能構築や複数機能選択など,さまざまなコンポーネントから構成されるカテゴリ機能を表現するための自動機能エンジニアリングフレームワークを提案する。
いくつかの典型的なeコマースデータセットで実施された実験は、我々の手法が古典的な機械学習モデルや最先端のディープラーニングモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-10-19T07:22:59Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。