論文の概要: Graph neural networks and MSO
- arxiv url: http://arxiv.org/abs/2505.07816v2
- Date: Thu, 15 May 2025 13:32:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 12:00:18.765646
- Title: Graph neural networks and MSO
- Title(参考訳): グラフニューラルネットワークとMSO
- Authors: Veeti Ahvonen, Damian Heiman, Antti Kuusisto,
- Abstract要約: 我々は、実数を扱う再帰グラフニューラルネットワークがモナディックな二階述語論理 MSO に制限された表現力を持つという既存の結果の代替的証明を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We give an alternative proof for the existing result that recurrent graph neural networks working with reals have the same expressive power in restriction to monadic second-order logic MSO as the graded modal substitution calculus. The proof is based on constructing distributed automata that capture all MSO-definable node properties over trees. We also consider some variants of the acceptance conditions.
- Abstract(参考訳): 我々は、実数を扱う再帰グラフニューラルネットワークがモナディックな二階述語論理 MSO に制限された表現力を持つという既存の結果の代替的証明を与える。
この証明は、木上の全てのMSO定義可能なノード特性をキャプチャする分散オートマトンの構築に基づいている。
また、受理条件の変種についても検討する。
関連論文リスト
- Halting Recurrent GNNs and the Graded $μ$-Calculus [1.1662068132437746]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う機械学習モデルのクラスである。
現在のGNNの提案では、グラフのサイズがモデルに与えられるか、終了保証の欠如に悩まされていると仮定している。
本稿では,繰り返しGNNの停止機構を提案する。
論文 参考訳(メタデータ) (2025-05-16T09:46:36Z) - $p$-Adic Polynomial Regression as Alternative to Neural Network for Approximating $p$-Adic Functions of Many Variables [55.2480439325792]
任意の精度で連続関数を近似できる回帰モデルを構築している。
提案モデルは、ニューラルネットワークアーキテクチャに基づく$p$-adicモデルの簡単な代替と見なすことができる。
論文 参考訳(メタデータ) (2025-03-30T15:42:08Z) - Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Non-convolutional Graph Neural Networks [46.79328529882998]
畳み込み演算子を完全に含まない単純なグラフ学習モジュールを設計し、RUMニューラルネットワークを用いたランダムウォークを作成した。
RUMは競合する性能を実現するが、より堅牢で、メモリ効率が高く、スケーラブルで、最も単純な畳み込みGNNよりも高速である。
論文 参考訳(メタデータ) (2024-07-31T21:29:26Z) - On the Representational Capacity of Neural Language Models with Chain-of-Thought Reasoning [87.73401758641089]
CoT推論による現代言語モデル(LM)の性能向上
LMは弦上の分布の族を確率的チューリングマシンと同一に表現できることを示す。
論文 参考訳(メタデータ) (2024-06-20T10:59:02Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Recurrent Neural Language Models as Probabilistic Finite-state Automata [66.23172872811594]
RNN LMが表現できる確率分布のクラスについて検討する。
単純なRNNは確率的有限状態オートマトンの部分クラスと同値であることを示す。
これらの結果は、RNN LMが表現できる分布のクラスを特徴付けるための第一歩を示す。
論文 参考訳(メタデータ) (2023-10-08T13:36:05Z) - A Modal Logic for Explaining some Graph Neural Networks [0.0]
各式が等価グラフニューラルネットワーク(GNN)に変換可能であることを示す。
また、満足度問題は決定可能であることも示している。
論文 参考訳(メタデータ) (2023-07-11T10:13:25Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Self-consistent Reasoning For Solving Math Word Problems [27.584325149744444]
数学語問題(英: Math word problem、MWP)は、テキスト中の数学問題から解表現を自動的に導き出すタスクである。
これまでの研究では、入力テキストと出力表現の間に急激な相関関係があった。
本稿では,出力分布シフトの補正にプルーニング戦略を採用するSCRという自己整合推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:34:31Z) - Covariant-Contravariant Refinement Modal $\mu$-calculus [0.0]
本稿では,CC-refinement modal $mu$-calculus (CCRML$mu$)を紹介する。
CCRML$mu$は、リアクティブおよび生成的アクションを参照するシステムの特性を記述するための仕様言語と見なすことができる。
論文 参考訳(メタデータ) (2022-08-05T05:24:30Z) - Constrained Training of Neural Networks via Theorem Proving [0.2578242050187029]
有限トレース上の線形時間論理の深い埋め込み(LTL$_f$)を定式化する。
次に、損失関数 $mathcalL$ を形式化し、その関数 $dmathcalL$ に微分可能であることを正式に証明する。
本研究では,動的運動のための既存のディープラーニングフレームワークのトレーニングに使用する場合,共通の運動仕様パターンに対する予測結果が得られたことを示す。
論文 参考訳(メタデータ) (2022-07-08T13:13:51Z) - Going Deeper into Permutation-Sensitive Graph Neural Networks [6.685139672294716]
置換群を経由した効率的な置換感応アグリゲーション機構を考案した。
我々は、我々のアプローチが2次元ワイスフェイラー・リーマン(英語版)(2-WL)グラフ同型テストよりも厳密に強力であることを証明した。
論文 参考訳(メタデータ) (2022-05-28T08:22:10Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Using Automated Theorem Provers for Mistake Diagnosis in the Didactics
of Mathematics [0.0]
Diproche システムは、Koepke や Schr"oder 、 Cramer などによる Naproche システムに似た初心者学生の運動の文脈に特化している。
本稿では,このようなアンチATPの概念を簡潔に解説し,その実装における基本技術について解説する。
論文 参考訳(メタデータ) (2020-02-12T16:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。