論文の概要: Grouped Feature Importance and Combined Features Effect Plot
- arxiv url: http://arxiv.org/abs/2104.11688v1
- Date: Fri, 23 Apr 2021 16:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:17:47.431395
- Title: Grouped Feature Importance and Combined Features Effect Plot
- Title(参考訳): グループ化特徴重要度と複合特徴効果プロット
- Authors: Quay Au, Julia Herbinger, Clemens Stachl, Bernd Bischl, Giuseppe
Casalicchio
- Abstract要約: 解釈可能な機械学習は、機械学習アルゴリズムの人気が高まり、研究の活発な領域となっている。
機能グループに対して,既存のモデル非依存手法をどのように定義できるかを包括的に概観し,機能グループの重要性を評価した。
本稿では,特徴のスパースで解釈可能な線形結合に基づいて,特徴群の効果を可視化する手法である複合特徴効果プロットを提案する。
- 参考スコア(独自算出の注目度): 2.15867006052733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable machine learning has become a very active area of research due
to the rising popularity of machine learning algorithms and their inherently
challenging interpretability. Most work in this area has been focused on the
interpretation of single features in a model. However, for researchers and
practitioners, it is often equally important to quantify the importance or
visualize the effect of feature groups. To address this research gap, we
provide a comprehensive overview of how existing model-agnostic techniques can
be defined for feature groups to assess the grouped feature importance,
focusing on permutation-based, refitting, and Shapley-based methods. We also
introduce an importance-based sequential procedure that identifies a stable and
well-performing combination of features in the grouped feature space.
Furthermore, we introduce the combined features effect plot, which is a
technique to visualize the effect of a group of features based on a sparse,
interpretable linear combination of features. We used simulation studies and a
real data example from computational psychology to analyze, compare, and
discuss these methods.
- Abstract(参考訳): 解釈可能な機械学習は、機械学習アルゴリズムの普及と本質的に困難な解釈可能性のために、非常に活発な研究分野となっている。
この領域でのほとんどの仕事は、モデルにおける単一特徴の解釈に焦点が当てられている。
しかし、研究者や実践者にとって、しばしば特徴群の重要性を定量化したり、その効果を可視化することが重要である。
この研究ギャップに対処するため、我々は、グループ化された特徴の重要性を評価するための機能グループに対して、既存のモデルに依存しない手法をどのように定義できるかを包括的に概観する。
また,グループ化特徴空間における機能の組み合わせを安定的かつ良好に識別する,重要度に基づくシーケンシャルプロシージャも導入する。
さらに,特徴のスパースで解釈可能な線形結合に基づいて,特徴群の効果を可視化する手法である複合特徴効果プロットを提案する。
我々は、シミュレーション研究と計算心理学の実際のデータ例を用いて、これらの手法を分析し、比較し、議論した。
関連論文リスト
- Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Feature graphs for interpretable unsupervised tree ensembles: centrality, interaction, and application in disease subtyping [0.24578723416255746]
特徴の選択は、モデルの解釈可能性を高める上で重要な役割を担います。
決定木を集約することで得られる精度は、解釈可能性の犠牲となる。
この研究では、教師なしランダムな森林から特徴グラフを構築するための新しい手法を紹介した。
論文 参考訳(メタデータ) (2024-04-27T12:47:37Z) - A Contrast Based Feature Selection Algorithm for High-dimensional Data
set in Machine Learning [9.596923373834093]
本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
論文 参考訳(メタデータ) (2024-01-15T05:32:35Z) - Relational Local Explanations [11.679389861042]
我々は,入力変数間の関係解析に基づく,新しいモデルに依存しない,置換に基づく特徴帰属アルゴリズムを開発した。
機械学習のモデル決定とデータについて、より広範な洞察を得ることができます。
論文 参考訳(メタデータ) (2022-12-23T14:46:23Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - Linear Classifier Combination via Multiple Potential Functions [0.6091702876917279]
決定境界からクラスセントロイドまでの距離との距離に基づいてスコアリング関数を計算する新しい概念を提案する。
重要な性質は、提案されたスコア関数がすべての線形基底分類器に対して同じ性質を持つことである。
論文 参考訳(メタデータ) (2020-10-02T08:11:51Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - FDive: Learning Relevance Models using Pattern-based Similarity Measures [27.136998442865217]
FDiveは視覚的に探索可能な関連モデルの作成を支援する視覚的能動学習システムである。
最適な類似度尺度に基づいて、インタラクティブな自己組織化マップベースの関連モデルを算出する。
また、その正確性を改善するために、さらに関連性フィードバックを自動で促す。
論文 参考訳(メタデータ) (2019-07-29T15:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。