論文の概要: Structural Compositional Function Networks: Interpretable Functional Compositions for Tabular Discovery
- arxiv url: http://arxiv.org/abs/2601.20037v1
- Date: Tue, 27 Jan 2026 20:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.650862
- Title: Structural Compositional Function Networks: Interpretable Functional Compositions for Tabular Discovery
- Title(参考訳): 構造構成関数ネットワーク: 語彙発見のための解釈可能な機能構成
- Authors: Fang Li,
- Abstract要約: 本稿では,構造構成ネットワーク(Structure compositional Networks, StructureCFN)を提案する。
私たちのフレームワークは構造化知識統合を可能にし、ドメイン固有のリレーショナル事前をアーキテクチャに直接注入して発見を導くことができます。
我々は18ベンチマークで厳密な10倍のクロスバリデーションスイートにまたがる構造CFNを評価し,統計的に有意な改善を示した。
- 参考スコア(独自算出の注目度): 4.8369208007394215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the ubiquity of tabular data in high-stakes domains, traditional deep learning architectures often struggle to match the performance of gradient-boosted decision trees while maintaining scientific interpretability. Standard neural networks typically treat features as independent entities, failing to exploit the inherent manifold structural dependencies that define tabular distributions. We propose Structural Compositional Function Networks (StructuralCFN), a novel architecture that imposes a Relation-Aware Inductive Bias via a differentiable structural prior. StructuralCFN explicitly models each feature as a mathematical composition of its counterparts through Differentiable Adaptive Gating, which automatically discovers the optimal activation physics (e.g., attention-style filtering vs. inhibitory polarity) for each relationship. Our framework enables Structured Knowledge Integration, allowing domain-specific relational priors to be injected directly into the architecture to guide discovery. We evaluate StructuralCFN across a rigorous 10-fold cross-validation suite on 18 benchmarks, demonstrating statistically significant improvements (p < 0.05) on scientific and clinical datasets (e.g., Blood Transfusion, Ozone, WDBC). Furthermore, StructuralCFN provides Intrinsic Symbolic Interpretability: it recovers the governing "laws" of the data manifold as human-readable mathematical expressions while maintaining a compact parameter footprint (300--2,500 parameters) that is over an order of magnitude (10x--20x) smaller than standard deep baselines.
- Abstract(参考訳): グラフデータの多様さにもかかわらず、従来のディープラーニングアーキテクチャは、科学的な解釈可能性を維持しながら、勾配に傾いた決定木のパフォーマンスに適合するのに苦労することが多い。
標準ニューラルネットワークは通常、特徴を独立した実体として扱うが、表分布を定義する固有の多様体構造的依存関係を利用できない。
本稿では,構造構成関数ネットワーク (StructuralCFN) を提案する。
構造CFNは、それぞれの特徴を、それぞれの関係に対する最適な活性化物理(例えば、注意スタイルのフィルタリングと阻止極性)を自動的に発見する微分適応ゲーティング(英語版)を通じて、それぞれの特徴の数学的構成としてモデル化する。
私たちのフレームワークは構造化知識統合を可能にし、ドメイン固有のリレーショナル事前をアーキテクチャに直接注入して発見を導くことができます。
我々は18のベンチマークで厳密な10倍のクロスバリデーションスイートを用いて構造CFNを評価し、科学的および臨床的データセット(例:血液輸血、オゾン、WDBC)に対して統計的に有意な改善(p < 0.05)を示した。
さらに、構造CFNは、データ多様体の「法則」を人間可読な数学的表現として復元し、標準の深いベースラインよりも桁違い(10x-20x)小さいコンパクトパラメータフットプリント(300-2,500パラメータ)を維持する。
関連論文リスト
- Probability Signature: Bridging Data Semantics and Embedding Structure in Language Models [8.87728727154868]
トークン間の意味的関係を反映した確率シグネチャのセットを提案する。
Pile corpus のサブセット上で Qwen2.5 アーキテクチャをトレーニングすることで,我々の作業を大規模言語モデル (LLM) に一般化する。
論文 参考訳(メタデータ) (2025-09-24T13:49:44Z) - AlphaFold Database Debiasing for Robust Inverse Folding [58.792020809180336]
Debiasing Structure AutoEncoder (DeSAE)を導入し、故意に破損したバックボーンジオメトリからネイティブライクなコンフォーメーションを再構築することを学ぶ。
推測において、DeSAEをAFDB構造に適用すると、逆折り畳み性能を著しく向上する偏りのある構造が生成される。
論文 参考訳(メタデータ) (2025-06-10T02:25:31Z) - Deep Copula Classifier: Theory, Consistency, and Empirical Evaluation [0.0]
ディープコピュラ(Deep Copula、DCC)は、依存モデルから境界推定を分離するクラス条件生成モデルである。
DCCは解釈可能で、ベイズ整合であり、過剰リスク$O(nr/(2r+d))$$$r$-smooth copulasを達成する。
論文 参考訳(メタデータ) (2025-05-29T02:07:26Z) - Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - Discrete Latent Structure in Neural Networks [32.41642110537956]
このテキストは、離散的な潜在構造を持つ学習のための3つの広義の戦略を探求する。
たいていは、同じ基本ブロックの小さなセットで構成されているが、それらが異なる使い方をしており、適用性や特性が著しく異なることを示している。
論文 参考訳(メタデータ) (2023-01-18T12:30:44Z) - Differentiable and Transportable Structure Learning [73.84540901950616]
本稿では,新しいアーキテクチャと損失関数により,発見された構造物の輸送性を回復するD-Structを紹介する。
D-Structは依然として微分可能であるため、既存の微分可能アーキテクチャでは容易に適用できる。
論文 参考訳(メタデータ) (2022-06-13T17:50:53Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。