論文の概要: eXpLogic: Explaining Logic Types and Patterns in DiffLogic Networks
- arxiv url: http://arxiv.org/abs/2503.09910v1
- Date: Thu, 13 Mar 2025 00:01:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:54:32.011957
- Title: eXpLogic: Explaining Logic Types and Patterns in DiffLogic Networks
- Title(参考訳): eXpLogic:DiffLogic Networksにおけるロジックタイプとパターンの説明
- Authors: Stephen Wormald, David Koblah, Matheus Kunzler Maldaner, Domenic Forte, Damon L. Woodard,
- Abstract要約: 本稿では,ある関数を活性化する入力パターンを説明するためのアルゴリズム(eXpLogic)を示す。
これらのマップは、ネットワークサイズと推論時間をそれぞれ87%と8%削減し、クラス固有の予測に限定的な影響(-3.8%)を持つ。
- 参考スコア(独自算出の注目度): 2.7542542931778864
- License:
- Abstract: Constraining deep neural networks (DNNs) to learn individual logic types per node, as performed using the DiffLogic network architecture, opens the door to model-specific explanation techniques that quell the complexity inherent to DNNs. Inspired by principles of circuit analysis from computer engineering, this work presents an algorithm (eXpLogic) for producing saliency maps which explain input patterns that activate certain functions. The eXpLogic explanations: (1) show the exact set of inputs responsible for a decision, which helps interpret false negative and false positive predictions, (2) highlight common input patterns that activate certain outputs, and (3) help reduce the network size to improve class-specific inference. To evaluate the eXpLogic saliency map, we introduce a metric that quantifies how much an input changes before switching a model's class prediction (the SwitchDist) and use this metric to compare eXpLogic against the Vanilla Gradients (VG) and Integrated Gradient (IG) methods. Generally, we show that eXpLogic saliency maps are better at predicting which inputs will change the class score. These maps help reduce the network size and inference times by 87\% and 8\%, respectively, while having a limited impact (-3.8\%) on class-specific predictions. The broader value of this work to machine learning is in demonstrating how certain DNN architectures promote explainability, which is relevant to healthcare, defense, and law.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を制約してノード毎の個々のロジックタイプを学習し、DiffLogicネットワークアーキテクチャを使用して実行することで、DNN固有の複雑性を緩和するモデル固有の説明テクニックへの扉を開く。
計算機工学から回路解析の原理に触発されて、ある関数を活性化する入力パターンを説明するサリエンシマップを生成するアルゴリズム(eXpLogic)を提案する。
eXpLogicの説明では、(1)決定に責任のある入力の正確なセットを示し、これは偽陰性および偽陽性予測の解釈を助け、(2)特定の出力を活性化する共通の入力パターンを強調し、(3)ネットワークサイズを縮小してクラス固有の推論を改善する。
eXpLogicの精度マップを評価するために,モデルのクラス予測(SwitchDist)を切り替える前にどの程度の入力が変化するかを定量化し,この指標を用いてeXpLogicをVanilla Gradients(VG)およびIntegrated Gradients(IG)メソッドと比較する。
一般に、eXpLogicのサリエンシマップはどの入力がクラススコアを変えるかを予測するのに優れていることを示す。
これらのマップは、クラス固有の予測に限定的な影響(-3.8 %)を持ちながら、それぞれ87 %と8 %のネットワークサイズと推論時間を減少させるのに役立つ。
機械学習に対するこの研究のより広範な価値は、特定のDNNアーキテクチャが、医療、防衛、法律に関連する説明可能性を促進することを示すことである。
関連論文リスト
- LASE: Learned Adjacency Spectral Embeddings [7.612218105739107]
グラフ入力から結節隣接スペクトル埋め込み(ASE)を学習する。
LASEは解釈可能で、パラメータ効率が高く、未観測のエッジを持つ入力に対して堅牢である。
LASEレイヤは、Graph Convolutional Network (GCN)と完全に接続されたGraph Attention Network (GAT)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-23T17:35:19Z) - Towards Rigorous Understanding of Neural Networks via
Semantics-preserving Transformations [0.0]
本稿では,Rectifier Neural Networksの正確かつグローバルな検証と説明に対するアプローチを提案する。
我々のアプローチの鍵は、意味論的に等価なTyped Affine Decision Structureの構築を可能にする、これらのネットワークのシンボリック実行である。
論文 参考訳(メタデータ) (2023-01-19T11:35:07Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Graph Neural Networks with Learnable Structural and Positional
Representations [83.24058411666483]
任意のグラフの大きな問題は、ノードの標準位置情報の欠如である。
ノードの位置ノード(PE)を導入し、Transformerのように入力層に注入する。
両方のGNNクラスで学習可能なPEを考えると、分子データセットのパフォーマンスは2.87%から64.14%に向上する。
論文 参考訳(メタデータ) (2021-10-15T05:59:15Z) - Interpretable Neural Networks based classifiers for categorical inputs [0.0]
本稿では,入力カテゴリ変数として扱うニューラルネットワーク分類器の出力関数を簡易に解釈する手法を提案する。
これらの場合、ネットワークの各層、特にロジット層は、各入力パターンの分類に寄与する用語の総和として拡張可能であることを示す。
適切なゲージ変換後の各パターンのコントリビューションの分析を,本手法の有効性が評価できる2つの事例に示す。
論文 参考訳(メタデータ) (2021-02-05T14:38:50Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Deep Networks as Logical Circuits: Generalization and Interpretation [10.223907995092835]
本稿では、Deep Neural Networks (DNN) の離散分類マップを中間(True/False)分類器の論理的(AND/OR)組合せに階層的に分解する。
学習された内部的論理的計算は、平易な英語でDNN記述を許容する意味論的意味のあるカテゴリに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-25T20:39:53Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。