論文の概要: Query Languages for Machine-Learning Models
- arxiv url: http://arxiv.org/abs/2601.09381v1
- Date: Wed, 14 Jan 2026 11:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.376494
- Title: Query Languages for Machine-Learning Models
- Title(参考訳): 機械学習モデルのためのクエリ言語
- Authors: Martin Grohe,
- Abstract要約: 重み付き有限構造の2つの論理について論じる。
これらの論理で表現できるニューラルネットワークに対するクエリの例を示す。
- 参考スコア(独自算出の注目度): 7.343886246061387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, I discuss two logics for weighted finite structures: first-order logic with summation (FO(SUM)) and its recursive extension IFP(SUM). These logics originate from foundational work by Grädel, Gurevich, and Meer in the 1990s. In recent joint work with Standke, Steegmans, and Van den Bussche, we have investigated these logics as query languages for machine learning models, specifically neural networks, which are naturally represented as weighted graphs. I present illustrative examples of queries to neural networks that can be expressed in these logics and discuss fundamental results on their expressiveness and computational complexity.
- Abstract(参考訳): 本稿では、和付き一階述語論理(FO(SUM))と再帰的拡張IFP(SUM)の2つの重み付き有限構造の論理について論じる。
これらの論理は、1990年代にGrädel、Gurevich、Meerによる基礎研究に由来する。
Standke、Steegmans、Van den Busscheとの最近の共同研究で、我々はこれらのロジックを機械学習モデル、特に重み付きグラフとして自然に表されるニューラルネットワークのクエリ言語として調査した。
本稿では、これらの論理で表現できるニューラルネットワークに対するクエリの例を示し、その表現性や計算複雑性に関する基礎的な結果について議論する。
関連論文リスト
- Lecture Notes on Verifying Graph Neural Networks [10.812772606528172]
まず、グラフニューラルネットワークと一階述語論理や次数修飾論理などの論理との接続を思い出す。
次に、グラフニューラルネットワークの検証タスクを解決するために、線形不等式に数えるモーダル論理を提案する。
本稿では,その論理の満足度問題に対するアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-10-13T16:57:20Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
カリキュラムベースの論理認識型チューニングフレームワークであるLACTを提案する。
具体的には、任意の一階論理クエリをバイナリツリー分解によって拡張する。
広く使われているデータセットに対する実験では、LATは高度な手法よりも大幅に改善(平均+5.5% MRRスコア)し、新しい最先端技術を実現している。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Query Structure Modeling for Inductive Logical Reasoning Over Knowledge
Graphs [67.043747188954]
KGに対する帰納的論理的推論のための構造モデル付きテキスト符号化フレームワークを提案する。
線形化されたクエリ構造とエンティティを、事前訓練された言語モデルを使ってエンコードして、回答を見つける。
2つの帰納的論理推論データセットと3つの帰納的推論データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-23T01:25:29Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - LogicInference: A New Dataset for Teaching Logical Inference to seq2seq
Models [4.186923466475792]
本稿では,論理推論を行うモデルの能力を評価する新しいデータセットであるLogicInferenceを提案する。
このデータセットは、命題論理と一階述語論理の小さなサブセットを用いた推論に焦点を当てている。
また、このデータセットに初期ベースラインを確立するために、機械学習モデルの集合を用いて初期結果を報告する。
論文 参考訳(メタデータ) (2022-03-28T21:13:22Z) - Logic Tensor Networks [9.004005678155023]
学習と推論をサポートする神経シンボリック形式論と計算モデルであるLogic Networks(LTN)を提示する。
LTNがいくつかのAIタスクの仕様と計算に一様言語を提供することを示す。
論文 参考訳(メタデータ) (2020-12-25T22:30:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。