論文の概要: REFRESH: Responsible and Efficient Feature Reselection Guided by SHAP Values
- arxiv url: http://arxiv.org/abs/2403.08880v1
- Date: Wed, 13 Mar 2024 18:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 22:46:57.698231
- Title: REFRESH: Responsible and Efficient Feature Reselection Guided by SHAP Values
- Title(参考訳): REFRESH: SHAP値でガイドされた責任と効率的な機能選択
- Authors: Shubham Sharma, Sanghamitra Dutta, Emanuele Albini, Freddy Lecue, Daniele Magazzeni, Manuela Veloso,
- Abstract要約: REFRESHは、いくつかの新しいモデルをトレーニングすることなく、モデルパフォーマンスに望ましい追加の制約を達成できるように、機能を再選択する手法である。
REFRESHの基盤となるアルゴリズムは、SHAP値と相関解析を用いて、モデルをトレーニングすることなくモデルの予測を近似できる新しい手法である。
- 参考スコア(独自算出の注目度): 17.489279048199304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is a crucial step in building machine learning models. This process is often achieved with accuracy as an objective, and can be cumbersome and computationally expensive for large-scale datasets. Several additional model performance characteristics such as fairness and robustness are of importance for model development. As regulations are driving the need for more trustworthy models, deployed models need to be corrected for model characteristics associated with responsible artificial intelligence. When feature selection is done with respect to one model performance characteristic (eg. accuracy), feature selection with secondary model performance characteristics (eg. fairness and robustness) as objectives would require going through the computationally expensive selection process from scratch. In this paper, we introduce the problem of feature \emph{reselection}, so that features can be selected with respect to secondary model performance characteristics efficiently even after a feature selection process has been done with respect to a primary objective. To address this problem, we propose REFRESH, a method to reselect features so that additional constraints that are desirable towards model performance can be achieved without having to train several new models. REFRESH's underlying algorithm is a novel technique using SHAP values and correlation analysis that can approximate for the predictions of a model without having to train these models. Empirical evaluations on three datasets, including a large-scale loan defaulting dataset show that REFRESH can help find alternate models with better model characteristics efficiently. We also discuss the need for reselection and REFRESH based on regulation desiderata.
- Abstract(参考訳): 機能選択は、機械学習モデルを構築するための重要なステップである。
このプロセスは、しばしば目的として正確さで達成され、大規模データセットでは煩雑で計算コストがかかる。
フェアネスやロバストネスといった追加のモデルパフォーマンス特性は、モデル開発において重要である。
規制により、より信頼できるモデルの必要性が高まっているため、デプロイされたモデルは、責任ある人工知能に関連するモデル特性に対して修正される必要がある。
特徴選択が1つのモデル性能特性(精度など)に対して行われる場合、目的として二次モデル性能特性(公正性やロバスト性など)を持つ特徴選択は、計算的に高価な選択プロセスをスクラッチから行う必要がある。
本稿では,特徴選択プロセスが一次目的に対して実行された後でも,二次モデルの性能特性に対して効率よく特徴を選択できるように特徴選択問題を提起する。
この問題に対処するため,機能を再選択するREFRESHを提案する。
REFRESHの基盤となるアルゴリズムは、SHAP値と相関解析を用いて、モデルをトレーニングすることなくモデルの予測を近似できる新しい手法である。
大規模なローンデフォルトデータセットを含む3つのデータセットに対する実証的な評価は、REFRESHがより優れたモデル特性を持つ代替モデルを見つけるのに有効であることを示している。
また,規制デシダータに基づく再選とREFRESHの必要性についても論じる。
関連論文リスト
- Enabling Small Models for Zero-Shot Classification through Model Label Learning [50.68074833512999]
モデルと機能の間のギャップを埋める新しいパラダイムであるモデルラベル学習(MLL)を導入する。
7つの実世界のデータセットの実験により、MLLの有効性と効率が検証された。
論文 参考訳(メタデータ) (2024-08-21T09:08:26Z) - Towards Fundamentally Scalable Model Selection: Asymptotically Fast Update and Selection [40.85209520973634]
理想的なモデル選択スキームは、候補モデルの大きなプール上で2つの操作を効率的にサポートすべきである。
モデル選択に対する従来の解決策は、これらの2つの操作のうちの少なくとも1つに対して高い計算複雑性を必要とする。
モデル埋め込みを実証的に実現したStandardized Embedderを提案する。
論文 参考訳(メタデータ) (2024-06-11T17:57:49Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Green Runner: A tool for efficient deep learning component selection [0.76146285961466]
本稿では、自然言語で提供されるアプリケーションシナリオに基づいて、モデルを自動的に選択し、評価する新しいツールであるToolnameを提案する。
ツールネームは、問題に基づく制約とトレードオフをモデル選択プロセスに統合する、リソース効率のよい実験エンジンを備えている。
論文 参考訳(メタデータ) (2024-01-29T00:15:50Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Evaluating Representations with Readout Model Switching [19.907607374144167]
本稿では,最小記述長(MDL)の原理を用いて評価指標を考案する。
我々は、読み出しモデルのためのハイブリッド離散および連続値モデル空間を設計し、それらの予測を組み合わせるために切替戦略を用いる。
提案手法はオンライン手法で効率的に計算でき,様々なアーキテクチャの事前学習された視覚エンコーダに対する結果を示す。
論文 参考訳(メタデータ) (2023-02-19T14:08:01Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Ensembling improves stability and power of feature selection for deep
learning models [11.973624420202388]
本稿では,ディープラーニングモデルの設計と訓練における本質性によって,一般的に用いられる特徴重要度スコアが不安定になることを示す。
我々は、異なるエポックにおけるモデルの重要度スコアのアンサンブルについて検討し、この単純なアプローチがこの問題に実質的に対処できることを見出した。
訓練されたモデルの特徴的重要度を組み合わせるためのフレームワークを提案し、一つのベストモデルから特徴を選択する代わりに、多くの優れたモデルから特徴的重要度スコアのアンサンブルを実行する。
論文 参考訳(メタデータ) (2022-10-02T19:07:53Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - Leveraging Model Inherent Variable Importance for Stable Online Feature
Selection [16.396739487911056]
本稿では,オンライン機能選択のための新しいフレームワークFIRESを紹介する。
私たちのフレームワークは、基盤となるモデルの選択をユーザに委ねるという点で一般的です。
実験の結果,提案フレームワークは特徴選択安定性の点で明らかに優れていることがわかった。
論文 参考訳(メタデータ) (2020-06-18T10:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。