論文の概要: Recursive querying of neural networks via weighted structures
- arxiv url: http://arxiv.org/abs/2601.03201v1
- Date: Tue, 06 Jan 2026 17:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.043632
- Title: Recursive querying of neural networks via weighted structures
- Title(参考訳): 重み付き構造を用いたニューラルネットワークの再帰的クエリ
- Authors: Martin Grohe, Christoph Standke, Juno Steegmans, Jan Van den Bussche,
- Abstract要約: フィードフォワードニューラルネットワークにおける重み付き構造の論理について検討する。
我々はDatalogのような構文を採用し、固定点論理の正規形式を重み付け構造に拡張する。
非常に単純なモデルに依存しないクエリはすでにNP完全であることを示す。
- 参考スコア(独自算出の注目度): 5.5784135176547025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expressive querying of machine learning models - viewed as a form of intentional data - enables their verification and interpretation using declarative languages, thereby making learned representations of data more accessible. Motivated by the querying of feedforward neural networks, we investigate logics for weighted structures. In the absence of a bound on neural network depth, such logics must incorporate recursion; thereto we revisit the functional fixpoint mechanism proposed by Grädel and Gurevich. We adopt it in a Datalog-like syntax; we extend normal forms for fixpoint logics to weighted structures; and show an equivalent "loose" fixpoint mechanism that allows values of inductively defined weight functions to be overwritten. We propose a "scalar" restriction of functional fixpoint logic, of polynomial-time data complexity, and show it can express all PTIME model-agnostic queries over reduced networks with polynomially bounded weights. In contrast, we show that very simple model-agnostic queries are already NP-complete. Finally, we consider transformations of weighted structures by iterated transductions.
- Abstract(参考訳): 機械学習モデルの表現的クエリ - 意図的なデータの形式と見なす - は、宣言型言語を使用した検証と解釈を可能にし、学習したデータの表現をよりアクセスしやすくする。
フィードフォワードニューラルネットワークのクエリにより、重み付けされた構造の論理を探索する。
ニューラルネットワークの深さに縛られない場合、そのような論理は再帰を組み込まなければならず、Grädel と Gurevich によって提案された機能的固定点機構を再考する。
我々はこれをDatalogのような構文で採用し、固定点論理の正規形式を重み付き構造に拡張し、帰納的に定義された重み関数の値を上書きできる等価な「ルース」固定点機構を示す。
本稿では,多項式時間データ複雑性の関数的不動点論理の「スカラー」制限を提案し,多項式境界重みを持つ縮小ネットワーク上でPTIMEモデルに依存しない全てのクエリを表現可能であることを示す。
対照的に、非常に単純なモデルに依存しないクエリはNP完全である。
最後に、反復的トランスダクションによる重み付き構造の変換について考察する。
関連論文リスト
- Query languages for neural networks [2.189522312470092]
我々は、ニューラルネットワークモデルへのアクセスにおいて主に異なる一階述語論理に基づく異なるクエリ言語について研究する。
実数体上の一階述語論理は、ネットワークをブラックボックスと見なす言語を自然に生成する。
ホワイトボックス言語は、ネットワークを重み付きグラフと見なし、重み付き項の和で一階述語論理を拡張することで得られる。
論文 参考訳(メタデータ) (2024-08-19T18:59:52Z) - Conditional Logical Message Passing Transformer for Complex Query Answering [22.485655410582375]
我々は、新しい最先端のニューラルCQAモデル、条件付き論理メッセージパッシングトランス(CLMPT)を提案する。
我々は,本手法が性能に影響を与えずに計算コストを削減できることを実証的に検証した。
実験の結果, CLMPTは最先端のニューラルCQAモデルであることがわかった。
論文 参考訳(メタデータ) (2024-02-20T12:17:01Z) - Efficient Computation of Counterfactual Bounds [44.4263314637532]
我々は,構造因果モデルのサブクラスにおけるクレダルネットのアルゴリズムを用いて,正確な反ファクト境界を計算する。
近似の精度を信頼性のある間隔で評価する。
論文 参考訳(メタデータ) (2023-07-17T07:59:47Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z) - Increasing the Inference and Learning Speed of Tsetlin Machines with
Clause Indexing [9.440900386313215]
Tsetlin Machine (TM) は、古典的なTsetlin Automaton (TA) とゲーム理論に基づいて開発された機械学習アルゴリズムである。
我々は,MNISTとFashion-MNISTの画像分類とIMDbの感情分析を最大15倍,学習速度が3倍に向上したことを報告した。
論文 参考訳(メタデータ) (2020-04-07T08:16:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。