論文の概要: Symbolic Rule Extraction from Attention-Guided Sparse Representations in Vision Transformers
- arxiv url: http://arxiv.org/abs/2505.06745v1
- Date: Sat, 10 May 2025 19:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.021413
- Title: Symbolic Rule Extraction from Attention-Guided Sparse Representations in Vision Transformers
- Title(参考訳): 視覚変換器における注意誘導スパース表現からの記号規則抽出
- Authors: Parth Padalkar, Gopal Gupta,
- Abstract要約: 最近のニューロシンボリックアプローチは、解釈可能性を高めるためにCNNベースのモデルからシンボリック・ルールセットを抽出することに成功している。
本稿では、スパースオートエンコーダ(SAE)にインスパイアされたスパース概念層を導入し、視覚変換器(ViT)からシンボルルールを抽出するフレームワークを提案する。
本手法は,記号的推論が可能でありながら,標準のViTよりも5.14%の精度で分類できる。
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent neuro-symbolic approaches have successfully extracted symbolic rule-sets from CNN-based models to enhance interpretability. However, applying similar techniques to Vision Transformers (ViTs) remains challenging due to their lack of modular concept detectors and reliance on global self-attention mechanisms. We propose a framework for symbolic rule extraction from ViTs by introducing a sparse concept layer inspired by Sparse Autoencoders (SAEs). This linear layer operates on attention-weighted patch representations and learns a disentangled, binarized representation in which individual neurons activate for high-level visual concepts. To encourage interpretability, we apply a combination of L1 sparsity, entropy minimization, and supervised contrastive loss. These binarized concept activations are used as input to the FOLD-SE-M algorithm, which generates a rule-set in the form of logic programs. Our method achieves a 5.14% better classification accuracy than the standard ViT while enabling symbolic reasoning. Crucially, the extracted rule-set is not merely post-hoc but acts as a logic-based decision layer that operates directly on the sparse concept representations. The resulting programs are concise and semantically meaningful. This work is the first to extract executable logic programs from ViTs using sparse symbolic representations. It bridges the gap between transformer-based vision models and symbolic logic programming, providing a step forward in interpretable and verifiable neuro-symbolic AI.
- Abstract(参考訳): 最近のニューロシンボリックアプローチは、解釈可能性を高めるためにCNNベースのモデルからシンボリック・ルールセットを抽出することに成功している。
しかし、視覚変換器(ViT)に同様の手法を適用することは、モジュール型概念検出器の欠如と、グローバルな自己認識機構に依存しているため、依然として困難である。
本稿では,Sparse Autoencoders (SAEs) にインスパイアされたスパース概念層を導入することで,ViTsからシンボルルールを抽出するフレームワークを提案する。
この線形層は、注意重み付けされたパッチ表現で動作し、個々のニューロンが高レベルな視覚概念のために活性化する二項化表現を学習する。
解釈可能性を高めるために,L1間隔,エントロピー最小化,教師付きコントラスト損失の組合せを適用した。
これらの二項化概念アクティベーションは、論理プログラムの形式でルールセットを生成するFOLD-SE-Mアルゴリズムの入力として使用される。
本手法は,記号的推論が可能でありながら,標準のViTよりも5.14%の精度で分類できる。
重要なことは、抽出されたルールセットは単なるポストホックではなく、スパースの概念表現を直接操作する論理ベースの決定層として機能する。
結果として得られるプログラムは簡潔で意味論的に意味がある。
この研究は、スパース記号表現を用いてViTから実行可能な論理プログラムを抽出した最初のものである。
トランスフォーマーベースのビジョンモデルとシンボリックロジックプログラミングのギャップを埋め、解釈可能で検証可能なニューラルシンボリックAIの一歩となる。
関連論文リスト
- Pre-Training Meta-Rule Selection Policy for Visual Generative Abductive Learning [24.92602845948049]
本稿では,視覚生成学習アプローチAbdGenのためのメタルール選択ポリシーの事前学習手法を提案する。
事前学習プロセスは、純粋なシンボルデータに基づいて行われ、生の視覚入力のシンボル接地学習は含まない。
本手法は,視覚的帰納学習におけるメタルール選択問題に効果的に対処でき,視覚的帰納学習の効率を高めることができる。
論文 参考訳(メタデータ) (2025-03-09T03:41:11Z) - Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - Mechanisms of Symbol Processing for In-Context Learning in Transformer Networks [78.54913566111198]
大規模言語モデル(LLM)は、文脈内学習(ICL)によるシンボル処理における印象的な能力を示した。
トランスネットワークにおけるロバストなシンボル処理を実現するメカニズムの解明を目指す。
複雑で抽象的なシンボル処理を行うための記号プログラムを記述できる高レベル言語 PSL を開発した。
論文 参考訳(メタデータ) (2024-10-23T01:38:10Z) - Interpretable end-to-end Neurosymbolic Reinforcement Learning agents [20.034972354302788]
この研究は、ニューラルネットワークの強みとシンボリックAIを融合した、ニューロシンボリックAIパラダイムの中に自分自身を置く。
本稿では,異なるAtariゲーム上で,各コンポーネントを個別に評価するエンドツーエンド学習型SCoBotの実装について述べる。
論文 参考訳(メタデータ) (2024-10-18T10:59:13Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Symbolic Visual Reinforcement Learning: A Scalable Framework with
Object-Level Abstraction and Differentiable Expression Search [63.3745291252038]
DiffSESは、離散的なシンボルポリシーを発見する新しいシンボリック学習手法である。
生のピクセルレベルの入力の代わりにオブジェクトレベルの抽象化を使用することで、DiffSESはシンボリック表現の単純さとスケーラビリティの利点を活用することができる。
我々の実験は、DiffSESが最先端のシンボルRL法よりもシンプルでスケーラブルなシンボリックポリシーを生成することができることを示した。
論文 参考訳(メタデータ) (2022-12-30T17:50:54Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Rule Extraction from Binary Neural Networks with Convolutional Rules for
Model Validation [16.956140135868733]
本稿では,畳み込みニューラルネットワーク(CNN)を用いて抽出可能な論理則である一階畳み込み規則について紹介する。
提案手法は,ローカルサーチを用いたバイナリニューラルネットワークからのルール抽出に基づいている。
実験の結果,提案手法はニューラルネットワークの機能をモデル化できると同時に,解釈可能な論理ルールを生成できることがわかった。
論文 参考訳(メタデータ) (2020-12-15T17:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。