論文の概要: Disentangling Neural Disjunctive Normal Form Models
- arxiv url: http://arxiv.org/abs/2507.10546v1
- Date: Mon, 14 Jul 2025 17:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.669785
- Title: Disentangling Neural Disjunctive Normal Form Models
- Title(参考訳): 遠心性ニューラルディジャンクティブ正規形モデル
- Authors: Kexin Gu Baugh, Vincent Perreault, Matthew Baugh, Luke Dickens, Katsumi Inoue, Alessandra Russo,
- Abstract要約: ニューラル・ディジャンクティブ・ノーマル・フォーム(英語版)(DNF)に基づくモデルは、ニューラル・シンボリック・ラーニングに対する強力で解釈可能なアプローチである。
ここでは、翻訳中の性能劣化の一部は、ネットワークの重みの形で表現される学習知識を乱すことができないためであることを示す。
ネストしたルールを小さな独立ノードにエンコードするノードを分割することで、モデルの性能をよりよく保存することができる。
- 参考スコア(独自算出の注目度): 46.04248617689743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Disjunctive Normal Form (DNF) based models are powerful and interpretable approaches to neuro-symbolic learning and have shown promising results in classification and reinforcement learning settings without prior knowledge of the tasks. However, their performance is degraded by the thresholding of the post-training symbolic translation process. We show here that part of the performance degradation during translation is due to its failure to disentangle the learned knowledge represented in the form of the networks' weights. We address this issue by proposing a new disentanglement method; by splitting nodes that encode nested rules into smaller independent nodes, we are able to better preserve the models' performance. Through experiments on binary, multiclass, and multilabel classification tasks (including those requiring predicate invention), we demonstrate that our disentanglement method provides compact and interpretable logical representations for the neural DNF-based models, with performance closer to that of their pre-translation counterparts. Our code is available at https://github.com/kittykg/disentangling-ndnf-classification.
- Abstract(参考訳): ニューラル・ディジャンクティブ・ノーマル・フォーム(英語版)(DNF)に基づくモデルは、ニューラル・シンボリック・ラーニング(英語版)に対する強力で解釈可能なアプローチであり、タスクの事前知識のない分類と強化学習設定において有望な結果を示している。
しかし、それらの性能は、訓練後の記号翻訳プロセスの閾値付けによって劣化する。
ここでは、翻訳中の性能劣化の一部は、ネットワークの重みの形で表現される学習知識を乱すことができないためであることを示す。
ネストしたルールを小さな独立したノードにエンコードするノードを分割することで、モデルの性能をよりよく維持できる。
本稿では,2進法,複数クラス,複数ラベルの分類タスク(述語的発明を必要とするものを含む)の実験を通じて,ニューラルネットワークを用いたDNFモデルに対するコンパクトかつ解釈可能な論理表現を提供し,その性能が翻訳前のモデルに近いことを実証する。
私たちのコードはhttps://github.com/kittykg/disentangling-ndnf-classificationで利用可能です。
関連論文リスト
- Neural Symbolic Logical Rule Learner for Interpretable Learning [1.9526476410335776]
ルールベースのニューラルネットワークは、予測と解釈の両方の論理ルールを学ぶことによって、解釈可能な分類を可能にする。
我々は、選択離散ニューラルネットワークを利用した正規形規則学習アルゴリズム(NFRL)を導入し、共役正規形(CNF)と共役正規形(DNF)の両方の規則を学習する。
11のデータセットに関する広範な実験を通じて、NFRLは12の最先端の代替品と比較して、優れた分類性能、学習ルールの品質、効率と解釈性を示す。
論文 参考訳(メタデータ) (2024-08-21T18:09:12Z) - NeSyFOLD: Neurosymbolic Framework for Interpretable Image Classification [1.3812010983144802]
画像分類タスクのためのニューロシンボリック(NeSy)モデルを作成するため,NeSyFOLDと呼ばれる新しいフレームワークを提案する。
FOLD-SE-Mと呼ばれるルールベースの機械学習アルゴリズムを用いて、階層化された回答セットプログラムを導出する。
NeSyモデルによる予測の正当性は、ASPインタープリタを使って得ることができる。
論文 参考訳(メタデータ) (2023-01-30T05:08:05Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Graph Neural Network with Curriculum Learning for Imbalanced Node
Classification [21.085314408929058]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフベースの学習タスクの新興技術である。
本研究では,ノードラベルの不均衡に対するGNNの脆弱性を明らかにする。
本稿では,2つのモジュールからなるカリキュラム学習(GNN-CL)を備えたグラフニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-05T10:46:11Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Self-interpretable Convolutional Neural Networks for Text Classification [5.55878488884108]
本論文では,ReLU-DNNに固有の局所線型モデルを用いて,テキスト分類問題に対する畳み込みニューラルネットワークの解釈手法を提案する。
提案手法は,より複雑なCNNモデルに対して,自己解釈可能で,同等の性能を有する擬似モデルを生成する。
論文 参考訳(メタデータ) (2021-05-18T15:19:59Z) - CDLNet: Robust and Interpretable Denoising Through Deep Convolutional
Dictionary Learning [6.6234935958112295]
unrolled optimization networksは、ディープニューラルネットワークを構築するための解釈可能な代替案を提案する。
提案したモデルが,同様のパラメータ数にスケールすると,最先端のデノイジングモデルに勝ることを示す。
論文 参考訳(メタデータ) (2021-03-05T01:15:59Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Discriminatively-Tuned Generative Classifiers for Robust Natural
Language Inference [59.62779187457773]
自然言語推論のための生成型分類器(NLI)を提案する。
差別モデルやBERTのような大規模事前学習言語表現モデルを含む5つのベースラインと比較する。
実験の結果、GenNLIはいくつかの挑戦的なNLI実験環境において差別的ベースラインと事前訓練ベースラインの両方に優れていた。
論文 参考訳(メタデータ) (2020-10-08T04:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。