論文の概要: Quantifier Instantiations: To Mimic or To Revolt?
- arxiv url: http://arxiv.org/abs/2508.13811v1
- Date: Tue, 19 Aug 2025 13:16:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.931015
- Title: Quantifier Instantiations: To Mimic or To Revolt?
- Title(参考訳): 量子化のインスティファイション:ミミックかリボルトか?
- Authors: Jan Jakubův, Mikoláš Janota,
- Abstract要約: 量子式は、Satifiability Modulo Theories (SMT) の解法にとって重要な課題である。
e-matching、構文誘導、モデルベース、コンフリクトベース、列挙型メソッドといった既存のインスタンス化技術は、しばしば互いに補完する。
本稿では,これらの手法から動的に学習する新しいインスタンス化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantified formulas pose a significant challenge for Satisfiability Modulo Theories (SMT) solvers due to their inherent undecidability. Existing instantiation techniques, such as e-matching, syntax-guided, model-based, conflict-based, and enumerative methods, often complement each other. This paper introduces a novel instantiation approach that dynamically learns from these techniques during solving. By treating observed instantiations as samples from a latent language, we use probabilistic context-free grammars to generate new, similar terms. Our method not only mimics successful past instantiations but also explores diversity by optionally inverting learned term probabilities, aiming to balance exploitation and exploration in quantifier reasoning.
- Abstract(参考訳): 量子式は、その固有の不確定性のために、SMT(Satifiability Modulo Theories)ソルバにとって重要な課題である。
e-matching、構文誘導、モデルベース、コンフリクトベース、列挙型メソッドといった既存のインスタンス化技術は、しばしば互いに補完する。
本稿では,これらの手法から動的に学習する新しいインスタンス化手法を提案する。
潜在言語からのサンプルとして観察されたインスタンス化を扱い、確率論的文脈自由文法を用いて、新しい類似用語を生成する。
提案手法は過去のインスタンス化の成功を模倣するだけでなく,学習項の確率を任意に反転させることにより多様性を探求し,量化器推論における利用と探索のバランスを図っている。
関連論文リスト
- Solving Inverse Problems in Stochastic Self-Organising Systems through Invariant Representations [12.394699094197545]
自己組織化システムは、いかに単純なローカルルールが複雑なパターンを生成するかを示す。
多くの自然系はそのような力学に依存しており、自己組織は自然の複雑さを理解する中心となる。
このようなシステムのモデル化における根本的な課題は、マクロ的な観察から未知の因果パラメータを見つけるという逆問題の解決である。
論文 参考訳(メタデータ) (2025-06-13T14:01:39Z) - Unifying and extending Diffusion Models through PDEs for solving Inverse Problems [3.1225172236361165]
拡散モデルは、コンピュータビジョンと科学機械学習(SciML)に応用された強力な生成ツールとして登場した。
伝統的に、これらのモデルは変分推論、復調、統計信号処理、微分方程式の原理を用いて導出されてきた。
本研究では,線形偏微分方程式からアイデアを用いた拡散モデルを導出し,このアプローチにはいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2025-04-10T04:07:36Z) - Causality can systematically address the monsters under the bench(marks) [64.36592889550431]
ベンチマークはさまざまなバイアス、アーティファクト、リークに悩まされている。
モデルは、調査の不十分な障害モードのため、信頼できない振る舞いをする可能性がある。
因果関係はこれらの課題を体系的に解決するための 理想的な枠組みを提供します
論文 参考訳(メタデータ) (2025-02-07T17:01:37Z) - Toward Understanding In-context vs. In-weight Learning [50.24035812301655]
本研究は,文脈内学習の出現と消失を引き起こす簡易な分布特性を同定する。
そして、この研究を完全な大規模言語モデルに拡張し、自然言語プロンプトの様々なコレクションの微調整が、文脈内および重み付き学習の振る舞いをいかに引き出すかを示す。
論文 参考訳(メタデータ) (2024-10-30T14:09:00Z) - A Hybrid System for Systematic Generalization in Simple Arithmetic
Problems [70.91780996370326]
本稿では,記号列に対する合成的および体系的推論を必要とする算術的問題を解くことができるハイブリッドシステムを提案する。
提案システムは,最も単純なケースを含むサブセットでのみ訓練された場合においても,ネストした数式を正確に解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-29T18:35:41Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - Compositional Semantic Parsing with Large Language Models [27.627684573915147]
我々はより大きな語彙を持つより現実的な意味解析タスクにおける課題を特定する。
我々の最良の方法は最短のプロンプトに基づいている。
同様の取り組みが、他のタスクやドメインで新たな結果をもたらすことを期待しています。
論文 参考訳(メタデータ) (2022-09-29T17:58:28Z) - A Contrastive Framework for Neural Text Generation [46.845997620234265]
モデル変性の根底にある理由はトークン表現の異方性分布であることを示す。
モデル表現空間を校正するための対照的な学習目標であるSimCTGと,生成したテキストのコヒーレンスを維持しつつ多様性を高めるためのデコード手法であるコントラスト検索を提案する。
論文 参考訳(メタデータ) (2022-02-13T21:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。