論文の概要: TT-Sparse: Learning Sparse Rule Models with Differentiable Truth Tables
- arxiv url: http://arxiv.org/abs/2603.07606v1
- Date: Sun, 08 Mar 2026 12:37:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.907064
- Title: TT-Sparse: Learning Sparse Rule Models with Differentiable Truth Tables
- Title(参考訳): TTスパース:微分真理表を用いたスパースルールモデルの学習
- Authors: Hans Farrell Soegeng, Sarthak Ketanbhai Modi, Thomas Peyrin,
- Abstract要約: 我々は,異なる真理表をノードとして活用し,スパース接続を学習する,柔軟なニューラルネットワーク構築ブロックであるTT-Sparseを紹介した。
提案手法の鍵となる貢献は、離散的基数制約のある特徴選択を学習するためのストレートスルー推定を行うソフトなTopK演算子である。
得られたスパースルールは,既存の最先端手法と比較して,複雑さの低い予測性能が優れていることを示す。
- 参考スコア(独自算出の注目度): 1.9499120576896225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable machine learning is essential in high-stakes domains where decision-making requires accountability, transparency, and trust. While rule-based models offer global and exact interpretability, learning rule sets that simultaneously achieve high predictive performance and low, human-understandable complexity remains challenging. To address this, we introduce TT-Sparse, a flexible neural building block that leverages differentiable truth tables as nodes to learn sparse, effective connections. A key contribution of our approach is a new soft TopK operator with straight-through estimation for learning discrete, cardinality-constrained feature selection in an end-to-end differentiable manner. Crucially, the forward pass remains sparse, enabling efficient computation and exact symbolic rule extraction. As a result, each node (and the entire model) can be transformed exactly into compact, globally interpretable DNF/CNF Boolean formulas via Quine-McCluskey minimization. Extensive empirical results across 28 datasets spanning binary, multiclass, and regression tasks show that the learned sparse rules exhibit superior predictive performance with lower complexity compared to existing state-of-the-art methods.
- Abstract(参考訳): 解釈可能な機械学習は、意思決定が説明責任、透明性、信頼を必要とするハイテイクな領域において不可欠である。
ルールベースのモデルは、グローバルかつ正確な解釈可能性を提供するが、高い予測性能と低い人間の理解可能な複雑さを同時に達成する学習ルールセットは、依然として困難である。
そこで本研究では,ノードとして識別可能な真理表を活用するフレキシブルなニューラルネットワーク構築ブロックであるTT-Sparseを導入し,スパースで効率的な接続を学習する。
提案手法の鍵となる貢献は,独立性に制約された特徴選択をエンドツーエンドの微分可能な方法で学習するためのストレートスルー推定を行うソフトなTopK演算子である。
重要なことに、フォワードパスはスパースのままであり、効率的な計算と正確なシンボリックルール抽出を可能にしている。
その結果、各ノード(およびモデル全体)は、Quine-McCluskey最小化を介して、コンパクトで大域的に解釈可能なDNF/CNFブール公式に正確に変換できる。
バイナリ、マルチクラス、レグレッションタスクにまたがる28のデータセットにまたがる広範な実験結果から、学習されたスパースルールは、既存の最先端の手法と比較して、複雑さの低い予測性能が優れていることが示された。
関連論文リスト
- Improving Set Function Approximation with Quasi-Arithmetic Neural Networks [23.73257235603082]
準数学的ニューラルネットワーク(qui-arithmetic Neural Network, QUINN)を提案する。
quaNNは、一般的な集合関数分解の幅広いクラスに対する普遍近似である。
理論解析により、quarNNは共通な集合関数分解の幅広いクラスに対する普遍近似であることを示す。
論文 参考訳(メタデータ) (2026-02-04T18:36:31Z) - (Sometimes) Less is More: Mitigating the Complexity of Rule-based Representation for Interpretable Classification [1.6504157612470989]
ディープニューラルネットワークはAIの実践的な応用に広く利用されているが、その内部構造と複雑さにより、一般的には容易に解釈できない。
本研究では、論理に基づくニューラルネットワークであるMLLP(Multi-layer Logical Perceptron)に$L_0$正規化の微分可能な近似を適用し、その離散解釈可能なバージョンである概念ルールセット(CRS)の複雑さを低減する効果を研究する。
結果は、ネットワーク重みのランダム二元化のような代替手法と比較され、ノイズの少ない手法を用いて、より良い結果が得られるかどうかが決定される。
論文 参考訳(メタデータ) (2025-09-26T14:13:08Z) - Interpretable Feature Interaction via Statistical Self-supervised Learning on Tabular Data [22.20955211690874]
Spofeは、統計的厳密さによる明確な解釈可能性を達成するために、原則化された表現をキャプチャする、新しい自己教師型機械学習パイプラインである。
このアプローチの基盤となるのは、正確なエラー境界と厳密な偽発見率(FDR)制御を提供する、堅牢な理論フレームワークです。
さまざまな実世界のデータセットの実験は、Spotfeの有効性を実証している。
論文 参考訳(メタデータ) (2025-03-23T12:27:42Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - Learning Interpretable Deep Disentangled Neural Networks for
Hyperspectral Unmixing [16.02193274044797]
非線形性および終端変動を考慮した高スペクトルアンミックスのための新しい解釈可能な深層学習法を提案する。
モデルは、バックプロパゲーションを使用してエンドツーエンドに学習され、セルフ教師付き戦略を使用してトレーニングされる。
合成および実データを用いた実験結果から,提案手法の性能が示唆された。
論文 参考訳(メタデータ) (2023-10-03T18:21:37Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Efficient Learning of Interpretable Classification Rules [34.27987659227838]
本稿では,命題論理で表現可能な分類規則に対して,最大満足度(MaxSAT)に基づく解釈可能な学習フレームワークIMLIを提案する。
我々の実験では,IMLIは予測精度,解釈可能性,スケーラビリティの最良のバランスを達成している。
論文 参考訳(メタデータ) (2022-05-14T00:36:38Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。