論文の概要: Generation and Prediction of Difficult Model Counting Instances
- arxiv url: http://arxiv.org/abs/2212.02893v1
- Date: Tue, 6 Dec 2022 11:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 16:42:25.486762
- Title: Generation and Prediction of Difficult Model Counting Instances
- Title(参考訳): 難解なモデルカウントインスタンスの生成と予測
- Authors: Guillaume Escamocher, Barry O'Sullivan
- Abstract要約: インスタンスをカウントする小さなモデルを作成する方法を提示します。
私たちのジェネレータは非常にパラメータ化可能で、生成するインスタンスの変数の数とそれらの節の数、各節のリテラルの数はすべて任意の値に設定できます。
- 参考スコア(独自算出の注目度): 2.969705152497174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a way to create small yet difficult model counting instances. Our
generator is highly parameterizable: the number of variables of the instances
it produces, as well as their number of clauses and the number of literals in
each clause, can all be set to any value. Our instances have been tested on
state of the art model counters, against other difficult model counting
instances, in the Model Counting Competition. The smallest unsolved instances
of the competition, both in terms of number of variables and number of clauses,
were ours. We also observe a peak of difficulty when fixing the number of
variables and varying the number of clauses, in both random instances and
instances built by our generator. Using these results, we predict the parameter
values for which the hardest to count instances will occur.
- Abstract(参考訳): 小さくて難しいモデルカウントインスタンスを作成する方法を提案する。
私たちのジェネレータは非常にパラメータ化可能で、生成するインスタンスの変数の数とそれらの節の数、各節のリテラルの数はすべて任意の値に設定できます。
当社のインスタンスは,モデルカウントの競争において,他の難しいモデルカウントのインスタンスに対して,最先端のモデルカウンタでテストされています。
競合の最小の未解決例は、変数の数と節数の両方で、我々のものだった。
また、変数の数を修正し、節数を変更する際には、ランダムなインスタンスとジェネレータによって構築されたインスタンスの両方で困難を極める。
これらの結果を用いて,インスタンスのカウントが最も難しいパラメータ値を予測する。
関連論文リスト
- Dynamic Blocked Clause Elimination for Projected Model Counting [20.62154894623858]
これは、与えられた変数の集合 X を取り除いた後、命題式 Sigma| のモデルエクサスト X.Sigma| の数を決定する問題である。
SAT解決におけるブロック節除去はよく知られた手法であるが, モデルカウントへの直接適用は困難である。
本研究では,ブロックされた節探索中の予測変数に着目して,ブロックされた節の除去を正しいモデルカウントを保ちながら活用できることを実証する。
論文 参考訳(メタデータ) (2024-08-12T14:49:12Z) - Large Language Monkeys: Scaling Inference Compute with Repeated Sampling [81.34900892130929]
生成したサンプルの数を増やすことで、別の軸として推論計算を探索する。
すべての回答を自動的に検証できるコーディングや形式証明のようなドメインでは、カバレッジの増加は直接的にパフォーマンスの向上に変換される。
多くの世代から正しいサンプルを同定することは、自動検証のない領域における将来の研究にとって重要な方向である。
論文 参考訳(メタデータ) (2024-07-31T17:57:25Z) - Multi-Candidate Speculative Decoding [82.05519287513444]
大規模な言語モデルは、様々なNLPタスクで印象的な機能を示してきたが、その生成は自動回帰的に時間を要する。
これは高速なドラフトモデルから候補セグメントを生成し、ターゲットモデルによって並列に検証する。
本稿では,複数の候補をドラフトモデルから抽出し,検証のためにバッチにまとめる手法を提案する。
対象モデルの分布を維持しつつ,効率的な多候補検証のためのアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-01-12T17:15:23Z) - Self-Consistency of Large Language Models under Ambiguity [4.141513298907867]
本研究は,不特定の場合の自己整合性評価ベンチマークを示す。
あいまいな整数列補完タスクを用いて,OpenAIモデルスイート上で一連の動作実験を行う。
平均一貫性は67%から82%の範囲であり、モデルの一貫性がランダムであれば予測されるよりもはるかに高い。
論文 参考訳(メタデータ) (2023-10-20T11:57:56Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Improved SAT models for NFA learning [0.0]
文法推論は、単語からオートマトンと文法を学ぶアルゴリズムの研究に関係している。
単語のサンプルからサイズkの非決定論的有限オートマトンを学習することに集中する。
論文 参考訳(メタデータ) (2021-07-13T06:54:07Z) - True Few-Shot Learning with Language Models [78.42578316883271]
ホールドアウト例が利用できない場合, LMの少数ショット能力を評価する。
以上の結果から,先行研究はLMの真少ショット能力を大幅に過大評価していたことが示唆された。
論文 参考訳(メタデータ) (2021-05-24T17:55:51Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Classification Models for Partially Ordered Sequences [15.426481600285724]
部分順序付きシーケンスに対する新しい変換器ベースモデルを提案する。
既存の順序不変モデルの拡張に対してベンチマークを行う。
変換器をベースとした等時モデルでは,3つのデータセット上で既存のモデルの拡張よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-01-31T05:08:21Z) - Learning Branching Heuristics for Propositional Model Counting [27.343084935521752]
#SAT はブール公式の充足数を計算する問題である。
Neuro#は、特定の問題ファミリからインスタンス上の正確な#SATソルバのパフォーマンスを改善するために、ブランチを学習するためのアプローチである。
論文 参考訳(メタデータ) (2020-07-07T05:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。