論文の概要: Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic
- arxiv url: http://arxiv.org/abs/2603.05198v1
- Date: Thu, 05 Mar 2026 14:08:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.261769
- Title: Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic
- Title(参考訳): 形式論理をニューラルネットワーク空間に蒸留する:信号時間論理のカーネルアライメントアプローチ
- Authors: Sara Candussio, Gabriele Sarti, Gaia Saveri, Luca Bortolussi,
- Abstract要約: 形式仕様の連続的ニューラル表現を学習するためのフレームワークを導入する。
シンボリックロバストネスカーネルをトランスフォーマーエンコーダに蒸留する。
エンコーダは1つのフォワードパスに埋め込みを生成し、計算コストのごく一部でカーネルのロジックを効果的に模倣する。
- 参考スコア(独自算出の注目度): 6.419602857618508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a framework for learning continuous neural representations of formal specifications by distilling the geometry of their semantics into a latent space. Existing approaches rely either on symbolic kernels -- which preserve behavioural semantics but are computationally prohibitive, anchor-dependent, and non-invertible -- or on syntax-based neural embeddings that fail to capture underlying structures. Our method bridges this gap: using a teacher-student setup, we distill a symbolic robustness kernel into a Transformer encoder. Unlike standard contrastive methods, we supervise the model with a continuous, kernel-weighted geometric alignment objective that penalizes errors in proportion to their semantic discrepancies. Once trained, the encoder produces embeddings in a single forward pass, effectively mimicking the kernel's logic at a fraction of its computational cost. We apply our framework to Signal Temporal Logic (STL), demonstrating that the resulting neural representations faithfully preserve the semantic similarity of STL formulae, accurately predict robustness and constraint satisfaction, and remain intrinsically invertible. Our proposed approach enables highly efficient, scalable neuro-symbolic reasoning and formula reconstruction without repeated kernel computation at runtime.
- Abstract(参考訳): 本稿では,形式仕様の連続的ニューラル表現を,それらの意味論の幾何学を潜在空間に蒸留することによって学習する枠組みを提案する。
既存のアプローチは、振る舞いのセマンティクスを保存するが、計算的に禁止され、アンカーに依存し、非可逆であるシンボリックカーネルか、あるいは基盤構造をキャプチャできない構文ベースのニューラル埋め込みに依存している。
このギャップを埋める手法として,教師-学生のセットアップを用いて,シンボリックロバストネスカーネルをトランスフォーマーエンコーダに蒸留する手法を提案する。
標準的なコントラスト法とは異なり、我々は、その意味的相違に比例して誤差を罰する連続したカーネル重み付き幾何アライメントの目的でモデルを監督する。
訓練後、エンコーダは1つのフォワードパスに埋め込みを生成し、その計算コストのごく一部でカーネルのロジックを効果的に模倣する。
本稿では,信号時相論理 (Signal Temporal Logic, STL) に適用し, 結果のニューラル表現がSTL式の意味的類似性を忠実に保ち, 頑健さと制約満足度を正確に予測し, 本質的には倒立しないことを示す。
提案手法は,実行時に繰り返しカーネル計算を行うことなく,高効率でスケーラブルなニューロシンボリック推論と公式再構成を可能にする。
関連論文リスト
- Weights to Code: Extracting Interpretable Algorithms from the Discrete Transformer [65.38883376379812]
本稿では,連続表現と離散記号論理のギャップを埋めるアーキテクチャである離散変換器を提案する。
実証的には、Discrete TransformerはRNNベースのベースラインに匹敵するパフォーマンスを達成するだけでなく、連続的な変数ドメインへの解釈可能性を大幅に拡張する。
論文 参考訳(メタデータ) (2026-01-09T12:49:41Z) - A Unified Cortical Circuit Model with Divisive Normalization and Self-Excitation for Robust Representation and Memory Maintenance [2.705743343600661]
本稿では,分割正規化と自己励磁を組み合わせ,ロバストな符号化を実現するリカレントニューラルネットワークを提案する。
2つの標準タスクでモデルの汎用性を実証する。
この研究は、ノイズ抑圧、ワーキングメモリ、近似ベイズ推論を橋渡しする統一的な数学的枠組みを確立する。
論文 参考訳(メタデータ) (2025-08-18T08:00:24Z) - Quantum Spectral Reasoning: A Non-Neural Architecture for Interpretable Machine Learning [0.0]
本稿では,従来のニューラルネットワークのパラダイムから外れた,新しい機械学習アーキテクチャを提案する。
我々は、量子スペクトル法、特にPade近似法とLanczosアルゴリズムを用いて、解釈可能な信号解析とシンボリック推論を行う。
その結果,このスペクトル記号型アーキテクチャは,解釈可能性とデータ効率を保ちながら,競合精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-08-05T07:16:45Z) - Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Formally Verified Neurosymbolic Trajectory Learning via Tensor-based Linear Temporal Logic on Finite Traces [0.0]
有限トレース(LTLf)上の線形時間論理に対するテンソル意味論の新しい形式化を提案する。
我々は,この形式化を,制約に対する識別可能な損失関数の定義と検証によって,ニューロシンボリック学習プロセスに統合できることを実証した。
この損失を利用して、プロセスは事前に特定された論理的制約を満たすことを学ぶ。
論文 参考訳(メタデータ) (2025-01-23T14:43:12Z) - stl2vec: Semantic and Interpretable Vector Representation of Temporal Logic [0.5956301166481089]
論理式を意味的に基底としたベクトル表現(機能埋め込み)を提案する。
我々はいくつかの望ましい性質を持つ公式の連続的な埋め込みを計算する。
本稿では,学習モデル検査とニューロシンボリック・フレームワークの2つの課題において,アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-23T10:04:56Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Towards Invertible Semantic-Preserving Embeddings of Logical Formulae [1.0152838128195467]
論理的要件とルールの学習と最適化は、人工知能において常に重要な問題である。
現在のメソッドは、カーネルメソッドを介して効果的なセマンティック保存の埋め込みを構築することができるが、それらが定義するマップは可逆ではない。
本稿では,グラフ変分オートエンコーダフレームワークに基づく深層アーキテクチャを応用した埋め込みの逆変換法について述べる。
論文 参考訳(メタデータ) (2023-05-03T10:49:01Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。