論文の概要: XNNTab -- Interpretable Neural Networks for Tabular Data using Sparse Autoencoders
- arxiv url: http://arxiv.org/abs/2512.13442v1
- Date: Mon, 15 Dec 2025 15:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.728791
- Title: XNNTab -- Interpretable Neural Networks for Tabular Data using Sparse Autoencoders
- Title(参考訳): XNNTab --スパースオートエンコーダを用いた語彙データのための解釈可能なニューラルネットワーク
- Authors: Khawla Elhadri, Jörg Schlötterer, Christin Seifert,
- Abstract要約: ニューラルネットワークの表現性と解釈可能性を組み合わせたニューラルネットワークアーキテクチャであるXNNTabを提案する。
XNNTabはまず、高度に非線形な特徴表現を学習し、それは単意味的な特徴に分解される。
これらの特徴は人間の解釈可能な概念に割り当てられ、モデル全体の予測は本質的に解釈可能である。
- 参考スコア(独自算出の注目度): 11.062610312729865
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In data-driven applications relying on tabular data, where interpretability is key, machine learning models such as decision trees and linear regression are applied. Although neural networks can provide higher predictive performance, they are not used because of their blackbox nature. In this work, we present XNNTab, a neural architecture that combines the expressiveness of neural networks and interpretability. XNNTab first learns highly non-linear feature representations, which are decomposed into monosemantic features using a sparse autoencoder (SAE). These features are then assigned human-interpretable concepts, making the overall model prediction intrinsically interpretable. XNNTab outperforms interpretable predictive models, and achieves comparable performance to its non-interpretable counterparts.
- Abstract(参考訳): データ駆動型アプリケーションは、解釈可能性の鍵となる表型データに依存し、決定木や線形回帰といった機械学習モデルを適用する。
ニューラルネットワークは高い予測性能を提供できるが、ブラックボックスの性質のため使用されない。
本稿では,ニューラルネットワークの表現性と解釈可能性を組み合わせたニューラルネットワークアーキテクチャであるXNNTabを紹介する。
XNNTabは、まず高度に非線形な特徴表現を学習し、スパースオートエンコーダ(SAE)を用いて単意味的特徴に分解する。
これらの特徴は人間の解釈可能な概念に割り当てられ、モデル全体の予測は本質的に解釈可能である。
XNNTabは解釈可能な予測モデルより優れており、非解釈可能なモデルと同等のパフォーマンスを達成している。
関連論文リスト
- Towards Interpretable Deep Neural Networks for Tabular Data [11.062610312729865]
我々はXNNTabを紹介した。XNNTabは、予測に使用される潜在空間内の単意味的特徴の辞書を学習するニューラルネットワークである。
XNNTabは、最先端のブラックボックスニューラルモデルや古典的な機械学習アプローチと同等以上のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-10T14:14:43Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Interpretable Graph Neural Networks for Tabular Data [18.30325076881234]
IGNNetは学習アルゴリズムを制約し、解釈可能なモデルを生成する。
IGNNetは最先端の機械学習アルゴリズムに匹敵するパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-08-17T12:35:02Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Adaptive Explainable Neural Networks (AxNNs) [8.949704905866888]
我々は、予測性能とモデル解釈可能性の両目標を達成するために、Adaptive Explainable Neural Networks (AxNN) と呼ばれる新しいフレームワークを開発した。
予測性能向上のために,一般化された付加的モデルネットワークと付加的インデックスモデルからなる構造化ニューラルネットワークを構築した。
本稿では,AxNNの結果を主効果と高次相互作用効果に分解する方法を示す。
論文 参考訳(メタデータ) (2020-04-05T23:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。