論文の概要: Teaching Temporal Logics to Neural Networks
- arxiv url: http://arxiv.org/abs/2003.04218v3
- Date: Thu, 18 Feb 2021 12:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 00:26:17.198088
- Title: Teaching Temporal Logics to Neural Networks
- Title(参考訳): 時間論理をニューラルネットワークに教える
- Authors: Christopher Hahn, Frederik Schmitt, Jens U. Kreber, Markus N. Rabe,
Bernd Finkbeiner
- Abstract要約: 我々は、ニューラルネットワークが論理のセマンティクスを学習できる、深層学習が論理の課題に挑戦できる、という2つの基本的な問題について研究する。
本研究では,線形時間時間論理(LTL)に着目し,検証に広く用いられている。
問題に対してトランスフォーマーを訓練し、与えられた公式への解、すなわちトレースを直接予測する。
計算式に対する特定の解の学習には十分であり,古典的解法がタイムアウトした文献のベンチマークからでも解を予測できることを実証する。
- 参考スコア(独自算出の注目度): 8.928169373673777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study two fundamental questions in neuro-symbolic computing: can deep
learning tackle challenging problems in logics end-to-end, and can neural
networks learn the semantics of logics. In this work we focus on linear-time
temporal logic (LTL), as it is widely used in verification. We train a
Transformer on the problem to directly predict a solution, i.e. a trace, to a
given LTL formula. The training data is generated with classical solvers,
which, however, only provide one of many possible solutions to each formula. We
demonstrate that it is sufficient to train on those particular solutions to
formulas, and that Transformers can predict solutions even to formulas from
benchmarks from the literature on which the classical solver timed out.
Transformers also generalize to the semantics of the logics: while they often
deviate from the solutions found by the classical solvers, they still predict
correct solutions to most formulas.
- Abstract(参考訳): 我々は、ニューラルネットワークが論理のセマンティクスを学習できる、深層学習が論理の課題に挑戦できる、という2つの基本的な問題について研究する。
本研究では,線形時間時間論理(LTL)に着目し,検証に広く用いられている。
問題に対してトランスフォーマーを訓練し、与えられたLTL式への解、すなわちトレースを直接予測する。
トレーニングデータは古典的な解法で生成されるが、各公式に可能な解の1つしか提供しない。
計算式に対する特定の解の学習には十分であり,古典的解法がタイムアウトした文献のベンチマークからでも解を予測できることを実証する。
トランスフォーマーは論理のセマンティクスにも一般化する:それらは古典的な解法からしばしば逸脱するが、ほとんどの公式に対する正しい解を予測している。
関連論文リスト
- Learning Linear Attention in Polynomial Time [115.68795790532289]
線形注意を持つ単層変圧器の学習性に関する最初の結果を提供する。
線形アテンションは RKHS で適切に定義された線形予測器とみなすことができる。
我々は,すべての経験的リスクが線形変換器と同等のトレーニングデータセットを効率的に識別する方法を示す。
論文 参考訳(メタデータ) (2024-10-14T02:41:01Z) - The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - Transformers Learn Shortcuts to Automata [52.015990420075944]
低深度変換器は任意の有限状態オートマトンを計算できる。
我々は,$O(log T)$レイヤを持つ変換器が,長さ$T$の入力シーケンス上で,オートマトンを正確に再現可能であることを示す。
さらに、これらの解の脆性について検討し、潜在的な緩和を提案する。
論文 参考訳(メタデータ) (2022-10-19T17:45:48Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Learning the Solution Operator of Boundary Value Problems using Graph
Neural Networks [0.0]
グラフニューラルネットワーク(GNN)とスペクトルグラフ畳み込みを用いた2つの異なる時間非依存PDEに対する一般解演算子を設計する。
我々は、様々な形状と不均一性の有限要素ソルバからシミュレーションデータを用いてネットワークを訓練する。
有限要素メッシュの変動が多岐にわたる多様なデータセット上でのトレーニングが,優れた一般化結果を得るための鍵となる要素であることがわかった。
論文 参考訳(メタデータ) (2022-06-28T15:39:06Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Representation Learning of Logic Circuits [7.614021815435811]
本稿では,各ゲート上のベクトルとして回路の論理関数と構造情報を埋め込んだ表現学習ソリューションを提案する。
具体的には、学習のために回路を統一およびインバータグラフ形式に変換することを提案する。
次に,信号確率予測の先行学習として,実用的な回路における強い帰納バイアスを用いた新しいグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-26T05:57:05Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Recurrent Localization Networks applied to the Lippmann-Schwinger
Equation [0.0]
一般化Lippmann-Schwinger (L-S) 型の方程式を解くための新しい機械学習手法を提案する。
学習に基づくループアンロールの一部として、リカレント畳み込みニューラルネットワークを用いて、関心のある分野の制御方程式を反復的に解く。
本研究では, 局所的(ボクセルレベル)弾性ひずみの予測において, 優れた精度が得られる2相弾性局在問題に対する学習手法を示す。
論文 参考訳(メタデータ) (2021-01-29T20:54:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。