論文の概要: (Sometimes) Less is More: Mitigating the Complexity of Rule-based Representation for Interpretable Classification
- arxiv url: http://arxiv.org/abs/2509.22384v1
- Date: Fri, 26 Sep 2025 14:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.491144
- Title: (Sometimes) Less is More: Mitigating the Complexity of Rule-based Representation for Interpretable Classification
- Title(参考訳): (時々)より少ない:解釈可能な分類のためのルールベース表現の複雑さの軽減
- Authors: Luca Bergamin, Roberto Confalonieri, Fabio Aiolli,
- Abstract要約: ディープニューラルネットワークはAIの実践的な応用に広く利用されているが、その内部構造と複雑さにより、一般的には容易に解釈できない。
本研究では、論理に基づくニューラルネットワークであるMLLP(Multi-layer Logical Perceptron)に$L_0$正規化の微分可能な近似を適用し、その離散解釈可能なバージョンである概念ルールセット(CRS)の複雑さを低減する効果を研究する。
結果は、ネットワーク重みのランダム二元化のような代替手法と比較され、ノイズの少ない手法を用いて、より良い結果が得られるかどうかが決定される。
- 参考スコア(独自算出の注目度): 1.6504157612470989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are widely used in practical applications of AI, however, their inner structure and complexity made them generally not easily interpretable. Model transparency and interpretability are key requirements for multiple scenarios where high performance is not enough to adopt the proposed solution. In this work, a differentiable approximation of $L_0$ regularization is adapted into a logic-based neural network, the Multi-layer Logical Perceptron (MLLP), to study its efficacy in reducing the complexity of its discrete interpretable version, the Concept Rule Set (CRS), while retaining its performance. The results are compared to alternative heuristics like Random Binarization of the network weights, to determine if better results can be achieved when using a less-noisy technique that sparsifies the network based on the loss function instead of a random distribution. The trade-off between the CRS complexity and its performance is discussed.
- Abstract(参考訳): ディープニューラルネットワークは、AIの実践的な応用に広く利用されているが、その内部構造と複雑さにより、一般的には容易に解釈できない。
モデル透明性と解釈可能性は、提案されたソリューションを採用するのにハイパフォーマンスでは不十分な複数のシナリオにおいて重要な要件である。
本研究では,論理ベースのニューラルネットワークであるMLLP(Multi-layer Logical Perceptron)に$L_0$正規化の微分可能な近似を適用することにより,離散解釈可能なバージョンである概念ルールセット(CRS)の複雑性を低減し,その性能を維持する。
結果は、ネットワーク重みのランダム二元化のような代替ヒューリスティックと比較され、ランダム分布の代わりに損失関数に基づいてネットワークを分散させるノイズの少ない手法を用いることで、より良い結果が得られるかどうかが決定される。
CRSの複雑さと性能のトレードオフについて論じる。
関連論文リスト
- Learning Interpretable Differentiable Logic Networks for Tabular Regression [3.8064485653035987]
微分論理ネットワーク(DLN)は解釈可能な推論を提供し、推論コストを大幅に削減する。
我々はDLNフレームワークを監督的回帰に拡張し、特に、最終的な出力層を再設計し、継続的な目標をサポートし、元の2段階トレーニング手順を1つの異なる段階に統一する。
以上の結果から,DLNは回帰タスク,特にモデルの透明性と計算効率が重要である場合において,実行可能で費用対効果の高い代替手段であることが示唆された。
論文 参考訳(メタデータ) (2025-05-29T16:24:18Z) - Lattice-Based Pruning in Recurrent Neural Networks via Poset Modeling [0.0]
リカレントニューラルネットワーク(RNN)はシーケンスモデリングタスクの中心であるが、その高い計算複雑性はスケーラビリティとリアルタイムデプロイメントの課題を引き起こす。
本稿では,RNNを部分的に順序付けられた集合(命題)としてモデル化し,対応する依存格子を構成する新しいフレームワークを提案する。
既約ニューロンを同定することにより、格子ベースのプルーニングアルゴリズムは、冗長なニューロンを除去しながら、重要な接続を選択的に保持する。
論文 参考訳(メタデータ) (2025-02-23T10:11:38Z) - Learning Interpretable Differentiable Logic Networks [3.8064485653035987]
解釈可能な微分可能論理ネットワーク(DLN)を学習するための新しい手法を提案する。
我々はこれらのネットワークを、入力の双対化、二項論理演算、ニューロン間の接続を通じて、個々の成分の軟化と差別化によって訓練する。
20の分類タスクの実験結果は、従来のNNと同等かそれ以上の精度で、微分可能な論理ネットワークが達成可能であることを示している。
論文 参考訳(メタデータ) (2024-07-04T21:58:26Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Semantic Probabilistic Layers for Neuro-Symbolic Learning [83.25785999205932]
我々は構造化出力予測(SOP)のための予測層を設計する。
予測が事前に定義されたシンボリック制約のセットと一致していることを保証するため、任意のニューラルネットワークにプラグインすることができる。
我々のセマンティック確率層(SPL)は、構造化された出力空間上で複雑な相関や制約をモデル化することができる。
論文 参考訳(メタデータ) (2022-06-01T12:02:38Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。