論文の概要: Beyond Importance Scores: Interpreting Tabular ML by Visualizing Feature
Semantics
- arxiv url: http://arxiv.org/abs/2111.05898v1
- Date: Wed, 10 Nov 2021 19:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-13 05:19:06.073506
- Title: Beyond Importance Scores: Interpreting Tabular ML by Visualizing Feature
Semantics
- Title(参考訳): 重要度以上のスコア:特徴セマンティクスの可視化による表型mlの解釈
- Authors: Amirata Ghorbani, Dina Berenbaum, Maor Ivgi, Yuval Dafna, James Zou
- Abstract要約: 機械学習(ML)モデルが批判的な意思決定に広く利用されているため、解釈可能性(interpretability)は活発な研究トピックになりつつある。
表データに使われている既存の解釈可能性の手法の多くは、特徴重要点のみを報告している。
我々は,新しいグローバル解釈可能性法であるFeature Vectorsを導入することで,この制限に対処する。
- 参考スコア(独自算出の注目度): 17.410093908967976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability is becoming an active research topic as machine learning
(ML) models are more widely used to make critical decisions. Tabular data is
one of the most commonly used modes of data in diverse applications such as
healthcare and finance. Much of the existing interpretability methods used for
tabular data only report feature-importance scores -- either locally (per
example) or globally (per model) -- but they do not provide interpretation or
visualization of how the features interact. We address this limitation by
introducing Feature Vectors, a new global interpretability method designed for
tabular datasets. In addition to providing feature-importance, Feature Vectors
discovers the inherent semantic relationship among features via an intuitive
feature visualization technique. Our systematic experiments demonstrate the
empirical utility of this new method by applying it to several real-world
datasets. We further provide an easy-to-use Python package for Feature Vectors.
- Abstract(参考訳): 機械学習(ml)モデルは批判的な意思決定に広く使われているため、解釈性は活発な研究テーマになりつつある。
表データ(英: tabular data)は、医療や金融などの様々なアプリケーションにおいて最も一般的に使用されるデータモードの1つである。
表データで使用される既存の解釈可能性メソッドの多くは、機能インポータンススコア(ローカル(例)またはグローバル(モデル))のみを報告しているが、機能がどのように相互作用するかの解釈や可視化は提供していない。
表型データセット用に設計された新しいグローバル解釈手法であるfeature vectorsを導入することで,この制限に対処した。
機能の重要性に加えて、Feature Vectorsは直感的な機能可視化技術によって、機能間の固有のセマンティックな関係を発見する。
提案手法を実世界のデータセットに適用し,実験により実証的有用性を示す。
さらに,機能ベクタ用のpythonパッケージも提供しています。
関連論文リスト
- Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Iterative Feature Exclusion Ranking for Deep Tabular Learning [0.0]
タブラルデータ(英: Tabular data)は、データエントリとその特徴を表現するために、行や列に情報を格納する一般的なフォーマットである。
ディープニューラルネットワークは、コンピュータビジョンやNLPを含む幅広い領域をモデリングするための主要なアプローチとなっている。
エンドツーエンドの勾配に基づく最適化を含む内部的特徴選択機構を備えた最近のモデルでは、特徴の重要性の文脈依存を考慮できない。
提案モジュールは、各特徴を入力データから反復的に除外し、その特徴が予測に与える影響を表す注意スコアを算出する。
論文 参考訳(メタデータ) (2024-12-21T02:12:14Z) - LLM-assisted Explicit and Implicit Multi-interest Learning Framework for Sequential Recommendation [50.98046887582194]
本研究では,ユーザの興味を2つのレベル – 行動と意味論 – でモデル化する,明示的で暗黙的な多目的学習フレームワークを提案する。
提案するEIMFフレームワークは,小型モデルとLLMを効果的に組み合わせ,多目的モデリングの精度を向上させる。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - DimVis: Interpreting Visual Clusters in Dimensionality Reduction With Explainable Boosting Machine [3.2748787252933442]
DimVisは、DRプロジェクションの解釈アシスタントとして、教師付きExplainable Boosting Machine(EBM)モデルを使用するツールである。
本ツールは,視覚的クラスタにおける特徴関連性の解釈を提供することにより,高次元データ解析を容易にする。
論文 参考訳(メタデータ) (2024-02-10T04:50:36Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - PTab: Using the Pre-trained Language Model for Modeling Tabular Data [5.791972449406902]
近年の研究では、ニューラルネットワークモデルがタブラルデータの文脈表現の学習に有効であることが示されている。
本稿では,事前学習言語モデルを用いて,タブラルデータをモデル化する新しいフレームワークPTabを提案する。
提案手法は,最先端のベースラインに比べて,教師付き設定における平均AUCスコアが向上した。
論文 参考訳(メタデータ) (2022-09-15T08:58:42Z) - DIWIFT: Discovering Instance-wise Influential Features for Tabular Data [29.69737486124891]
タブラルデータ(Tabular data)は、小売、銀行、Eコマースなど、ビジネスアプリケーションにおいて最も一般的なデータストレージフォーマットの1つである。
表表データの学習における重要な問題の1つは、影響のある特徴と所定の特徴とを区別することである。
表型データ(DIWIFT)のインスタンス単位に影響を及ぼす特徴を発見するための新しい手法を提案する。
本手法は,検証セットの検証損失を最小限に抑え,トレーニングデータセットやテストデータセットに存在する分散シフトに対してより堅牢である。
論文 参考訳(メタデータ) (2022-07-06T16:07:46Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - SubTab: Subsetting Features of Tabular Data for Self-Supervised
Representation Learning [5.5616364225463055]
私たちはTabular Data(SubTab)のサブセット機能である新しいフレームワークを紹介します。
本稿では,タブラルデータ(SubTab)のサブセット機能である新しいフレームワークを提案する。
我々は、自動エンコーダ設定で、その機能の一部分からデータを再構成することで、その基盤となる表現をよりよく捉えることができると論じている。
論文 参考訳(メタデータ) (2021-10-08T20:11:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。