論文の概要: Interpretable Graph Neural Networks for Heterogeneous Tabular Data
- arxiv url: http://arxiv.org/abs/2408.07661v1
- Date: Wed, 14 Aug 2024 16:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 12:33:27.441003
- Title: Interpretable Graph Neural Networks for Heterogeneous Tabular Data
- Title(参考訳): 不均一な語彙データに対する解釈可能なグラフニューラルネットワーク
- Authors: Amr Alkhatib, Henrik Boström,
- Abstract要約: IGNHは分類的特徴と数値的特徴の両方を扱い、学習プロセスを制約して正確な特徴属性を生成する。
IGNHが提供した特徴属性は,ホック後に計算されたShapley値と一致していることを示す。
- 参考スコア(独自算出の注目度): 2.8084422332394423
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many machine learning algorithms for tabular data produce black-box models, which prevent users from understanding the rationale behind the model predictions. In their unconstrained form, graph neural networks fall into this category, and they have further limited abilities to handle heterogeneous data. To overcome these limitations, an approach is proposed, called IGNH (Interpretable Graph Neural Network for Heterogeneous tabular data), which handles both categorical and numerical features, while constraining the learning process to generate exact feature attributions together with the predictions. A large-scale empirical investigation is presented, showing that the feature attributions provided by IGNH align with Shapley values that are computed post hoc. Furthermore, the results show that IGNH outperforms two powerful machine learning algorithms for tabular data, Random Forests and TabNet, while reaching a similar level of performance as XGBoost.
- Abstract(参考訳): 表データのための多くの機械学習アルゴリズムはブラックボックスモデルを生成するため、ユーザーはモデル予測の背後にある理論的根拠を理解できない。
制約のない形式では、グラフニューラルネットワークはこのカテゴリに該当し、不均一なデータを扱う能力はさらに制限される。
これらの制約を克服するため、IGNH (Interpretable Graph Neural Network for Heterogeneous tabular data) と呼ばれる手法が提案され、分類的特徴と数値的特徴の両方を扱うと同時に、学習過程を制約し、予測とともに正確な特徴属性を生成する。
IGNHが提供した特徴属性は,ホック後に計算されたShapley値と一致していることを示す。
さらに、IGNHはグラフデータのための2つの強力な機械学習アルゴリズムであるRandom ForestsとTabNetを上回り、XGBoostと同等のパフォーマンスを達成した。
関連論文リスト
- Escaping the Forest: Sparse Interpretable Neural Networks for Tabular Data [0.0]
我々のモデルであるSparse TABular NET や sTAB-Net がツリーベースモデルよりも効果的であることを示す。
SHAPのようなポストホックメソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-23T10:50:07Z) - TabGraphs: A Benchmark and Strong Baselines for Learning on Graphs with Tabular Node Features [17.277932238538302]
タブラル機械学習はグラフ機械学習の手法の恩恵を受けるかもしれない。
グラフニューラルネットワーク(GNN)は、予測性能が向上することが多い。
単純な機能前処理により、GNNと競合し、さらに性能も向上する。
論文 参考訳(メタデータ) (2024-09-22T15:53:19Z) - Interpretable Graph Neural Networks for Tabular Data [18.30325076881234]
IGNNetは学習アルゴリズムを制約し、解釈可能なモデルを生成する。
IGNNetは最先端の機械学習アルゴリズムに匹敵するパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-08-17T12:35:02Z) - TabGSL: Graph Structure Learning for Tabular Data Prediction [10.66048003460524]
本稿では,グラフ構造学習(Tabular Graph Structure Learning, TabGSL)という新しい手法を提案する。
30のベンチマークデータセットで実施された実験では、TabGSLがツリーベースモデルと最近のディープラーニングベースモデルの両方を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2023-05-25T08:33:48Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - A Unifying Generative Model for Graph Learning Algorithms: Label
Propagation, Graph Convolutions, and Combinations [39.8498896531672]
グラフに関する半教師付き学習は、ネットワーク科学と機械学習において広く適用可能な問題である。
我々は,ノード属性のデータ生成プロセスのためのマルコフ確率場モデルを開発した。
ラベル伝播,線形化グラフ畳み込みネットワーク,それらの組み合わせが条件付き期待値として導出できることを示す。
論文 参考訳(メタデータ) (2021-01-19T17:07:08Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。