論文の概要: SharpSAT-TD in Model Counting Competitions 2021-2023
- arxiv url: http://arxiv.org/abs/2308.15819v1
- Date: Wed, 30 Aug 2023 07:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 14:33:29.244207
- Title: SharpSAT-TD in Model Counting Competitions 2021-2023
- Title(参考訳): 2021-2023年モデルカウント競争におけるSharpSAT-TD
- Authors: Tuukka Korhonen, Matti J\"arvisalo
- Abstract要約: シャープSAT-TDについて説明する。2021-2023年のモデルカウントコンペティション(Model Counting Competition)の、未加重トラックへの提出である。
SharpSAT-TDはSharpSAT [Thurley, SAT 2006]をベースにしている。
- 参考スコア(独自算出の注目度): 2.33877878310217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe SharpSAT-TD, our submission to the unweighted and weighted tracks
of the Model Counting Competition in 2021-2023, which has won in total $6$
first places in different tracks of the competition. SharpSAT-TD is based on
SharpSAT [Thurley, SAT 2006], with the primary novel modification being the use
of tree decompositions in the variable selection heuristic as introduced by the
authors in [CP 2021]. Unlike the version of SharpSAT-TD evaluated in [CP 2021],
the current version that is available in https://github.com/Laakeri/sharpsat-td
features also other significant modifications compared to the original
SharpSAT, for example, a new preprocessor.
- Abstract(参考訳): 我々は2021-2023年のモデル計数競争における、重み付けと重み付けのないトラックへの私たちの提案であるsharpsat-tdについて説明する。
SharpSAT-TD はSharpSAT [Thurley, SAT 2006] をベースとしており,[CP 2021] において著者らが導入した可変選択ヒューリスティックにおける木分解の利用が主な改良点である。
SharpSAT-TDが[CP 2021]で評価されているバージョンとは異なり、https://github.com/Laakeri/sharpsat-tdで利用可能な現在のバージョンは、例えば新しいプリプロセッサのようなオリジナルのSharpSATと比較して、他の重要な変更も行っている。
関連論文リスト
- Predicting Customer Satisfaction by Replicating the Survey Response Distribution [4.896237759904916]
コールセンターは、顧客が調査を完了していないコールに対して、顧客の満足度を予測するモデルから恩恵を受けることができる。
本稿では,コールセンタ毎のCSAT応答の分布を正確に再現する手法を提案する。
論文 参考訳(メタデータ) (2024-11-19T14:39:29Z) - ReNO: Enhancing One-step Text-to-Image Models through Reward-based Noise Optimization [59.72782742378666]
本稿では,Reward-based Noise Optimization (ReNO) を提案する。
20-50秒の計算予算の中で、ReNOによって強化されたワンステップモデルは、現在のすべてのオープンソーステキスト・トゥ・イメージ・モデルの性能を一貫して上回った。
論文 参考訳(メタデータ) (2024-06-06T17:56:40Z) - [Call for Papers] The 2nd BabyLM Challenge: Sample-efficient pretraining on a developmentally plausible corpus [81.34965784440176]
このCfPはBabyLM Challenge 2024-2025のルールを提供する。
課題の全体的目標は同じままです。
私たちは緩い線を紙の線で置き換える。
事前学習に関するルールを緩和します。
マルチモーダル・ヴィジュアル・アンド・ランゲージ・トラックを導入する。
論文 参考訳(メタデータ) (2024-04-09T11:04:50Z) - A Contrastive Compositional Benchmark for Text-to-Image Synthesis: A
Study with Unified Text-to-Image Fidelity Metrics [58.83242220266935]
我々は,T2Iモデルの構成性を評価するためのベンチマークであるWinoground-T2Iを紹介する。
このベンチマークには、20のカテゴリにまたがる11Kの複雑で高品質なコントラスト文ペアが含まれている。
我々は、Winoground-T2Iモデルの性能評価と、その評価に使用される指標の2つの目的を兼ね備えたWinoground-T2Iを用いている。
論文 参考訳(メタデータ) (2023-12-04T20:47:48Z) - Estimating the hardness of SAT encodings for Logical Equivalence
Checking of Boolean circuits [58.83758257568434]
LEC インスタンスの SAT 符号化の硬さは SAT パーティショニングでは textitw.r. と推定できることを示す。
そこで本研究では, SAT符号化の難易度を精度良く推定できるパーティショニング法を提案する。
論文 参考訳(メタデータ) (2022-10-04T09:19:13Z) - A Neural Network-based SAT-Resilient Obfuscation Towards Enhanced Logic
Locking [3.076761061950216]
本稿では,ニューラルネットワークを用いた unSAT 節変換器 SATConda を提案する。
SATCondaは最小限の領域と電力オーバーヘッドを発生させ、元の機能を不必要なセキュリティで保存する。
SATCondaをISCAS85およびISCAS89ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-09-13T07:59:27Z) - SATformer: Transformer-Based UNSAT Core Learning [0.0]
本稿では,SAT 問題に対する Transformer ベースのアプローチである SATformer を紹介する。
SATformerは、問題を直接解決するのではなく、満足できないことに焦点をあてて、その問題を反対方向からアプローチする。
SATformerは、シングルビットの満足度結果と最小限の不満コアを使用して、マルチタスク学習アプローチでトレーニングされる。
実験の結果,SATformerは既存のソルバのランタイムを平均21.33%削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-02T11:17:39Z) - DeepSAT: An EDA-Driven Learning Framework for SAT [9.111341161918375]
We present DeepSAT, a novel-to-end learning framework for the Boolean satisfiability (SAT) problem。
DeepSATは最先端の学習ベースSATソリューションに対して,大幅な精度向上を実現している。
論文 参考訳(メタデータ) (2022-05-27T03:20:42Z) - The JHU submission to VoxSRC-21: Track 3 [31.804401484416452]
本報告では、Voxceleb Speaker Recognition Challenge 2021 Track 3に提出されたジョンズ・ホプキンス大学話者認識システムについて述べる。
私たちの全体的なトレーニングプロセスは、昨年のVoxSRC 2020チャレンジで提案されたものと似ています。
これは、Voxceleb1 test o、VoxSRC-21 Validation、テストトライアルにおいて、EER(%)の1.89、6.50、および6.89をそれぞれ示す、最も優れた提案モデルである。
論文 参考訳(メタデータ) (2021-09-28T01:30:10Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Smooth Adversarial Training [120.44430400607483]
ネットワークは正確かつ堅牢であると一般に信じられている。
ここでは、敵対的訓練に関する慎重な研究により、これらの共通の信念に挑戦する証拠を提示する。
本研究では、ReLUをそのスムーズな近似で置き換えて、逆行訓練を強化するスムーズな逆行訓練(SAT)を提案する。
論文 参考訳(メタデータ) (2020-06-25T16:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。