論文の概要: GpuShareSat: a SAT solver using the GPU for clause sharing
- arxiv url: http://arxiv.org/abs/2012.03119v1
- Date: Sat, 5 Dec 2020 20:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 13:27:43.552474
- Title: GpuShareSat: a SAT solver using the GPU for clause sharing
- Title(参考訳): GpuShareSat: 句共有にGPUを使用するSATソルバ
- Authors: Nicolas Prevot
- Abstract要約: 本稿では,GPU(CUDA)とCPUの両方を用いたSATソルバについて述べる。
各CPUスレッドは、学習したすべての節をGPUにエクスポートする。
SAT 2020コンペティションでは、グルコースシロップよりも22のケースが解決されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe a SAT solver using both the GPU (CUDA) and the CPU with a new
clause exchange strategy. The CPU runs a classic multithreaded CDCL SAT solver.
EachCPU thread exports all the clauses it learns to the GPU. The GPU makes a
heavy usage of bitwise operations. It notices when a clause would have been
used by a CPU thread and notifies that thread, in which case it imports that
clause. This relies on the GPU repeatedly testing millions of clauses against
hundreds of assignments. All the clauses are tested independantly from each
other (which allows the GPU massively parallel approach), but against all the
assignments at once, using bitwise operations. This allows CPU threads to only
import clauses which would have been useful for them. Our solver is based upon
glucose-syrup. Experiments show that this leads to a strong performance
improvement, with 22 more instances solved on the SAT 2020 competition than
glucose-syrup.
- Abstract(参考訳): 本稿では,新しい節交換戦略を用いて,gpu(cuda)とcpuの両方を用いたsatソルバについて述べる。
CPUは古典的なマルチスレッドCDCLSATソルバを実行する。
各CPUスレッドは、学習したすべての節をGPUにエクスポートする。
GPUはビット演算を多用している。
CPUスレッドが節をいつ使用していたかを認識し、そのスレッドに通知し、その場合その節をインポートする。
これはGPUが数百の代入に対して数百万の条項を繰り返しテストすることに依存する。
すべての節は互いに独立してテストされる(GPUが大規模に並列なアプローチを可能にする)が、ビットワイズ操作を使用してすべての代入に対して同時に行われる。
これにより、CPUスレッドは、それらにとって有用な節だけをインポートできる。
我々の解法はグルコースシロップに基づいている。
実験の結果、sat 2020のコンペティションでは、グルコースシロップよりも22インスタンスのインスタンスが解決され、パフォーマンスが向上することが示された。
関連論文リスト
- Optimized thread-block arrangement in a GPU implementation of a linear solver for atmospheric chemistry mechanisms [0.0]
地球系モデル (ESM) は、大気化学プロセスを解決するために重要なハードウェア資源とエネルギー消費を必要とする。
最近の研究では、GPUアクセラレータ上でこれらのモデルを実行することで、パフォーマンスが改善されている。
本研究は,Block-cellsと呼ばれるGPU上でのケミカルソルバの計算負荷の最適化分布を提案する。
論文 参考訳(メタデータ) (2024-05-27T17:12:59Z) - SIP: Autotuning GPU Native Schedules via Stochastic Instruction Perturbation [0.0]
大型言語モデル(LLM)はその出現以来、重要なワークロードとなっている。
また、数十億のパラメータを持ち、大量のデータで訓練されているため、計算コストも高い。
近年、LLMのトレーニングと推論のための専用カーネルが開発されているため、ハードウェアリソースは可能な限り十分に活用されている。
論文 参考訳(メタデータ) (2024-03-25T15:26:50Z) - Benchmarking GPUs on SVBRDF Extractor Model [0.0]
本研究では、より大きな入力画像(256x256)で動作するニューラルネットワークモデル上での異なるGPUの性能を区別する。
本研究では、より大きな入力画像(256x256)で動作するニューラルネットワークモデル上での異なるGPUの性能の差別化を試みた。
論文 参考訳(メタデータ) (2023-10-19T17:09:06Z) - Enabling Multi-threading in Heterogeneous Quantum-Classical Programming
Models [53.937052213390736]
量子カーネルの並列実行を可能にするために,C++ベースの並列コンストラクトを導入する。
予備的な性能の結果は、カーネル毎に12スレッドのベルカーネルを2回実行し、カーネルを次々に実行する並列性能が向上したことを示している。
論文 参考訳(メタデータ) (2023-01-27T06:48:37Z) - LoopStack: a Lightweight Tensor Algebra Compiler Stack [61.04098601022665]
LoopStackはテンソル操作のためのドメイン固有のコンパイラスタックである。
最先端の機械学習フレームワークのパフォーマンスにマッチし、頻繁なマシンコードを生成する。
メモリフットプリントは非常に小さく、バイナリサイズは245KBで、30K行未満の効率的なコードによって、モバイルや組み込みデバイスでの使用に適している。
論文 参考訳(メタデータ) (2022-05-02T01:57:58Z) - Performance Evaluation and Acceleration of the QTensor Quantum Circuit
Simulator on GPUs [6.141912076989479]
我々は、NumPy、PyTorch、CuPyのバックエンドを実装し、ベンチマークを行い、CPUまたはGPUにテンソルシミュレーションの最適な割り当てを見つける。
ベンチマークしたQAOA回路のCPU上のNumPyベースライン上でのGPUの高速化により,MaxCut問題を解く。
論文 参考訳(メタデータ) (2022-04-12T19:03:44Z) - PLSSVM: A (multi-)GPGPU-accelerated Least Squares Support Vector Machine [68.8204255655161]
Support Vector Machines (SVM) は機械学習で広く使われている。
しかし、現代的で最適化された実装でさえ、最先端ハードウェア上の大きな非自明な高密度データセットにはうまくスケールしない。
PLSSVMはLVMのドロップイン代替として使用できる。
論文 参考訳(メタデータ) (2022-02-25T13:24:23Z) - GPU backed Data Mining on Android Devices [13.381440652961624]
AndroidデバイスでOpenCLを使用できるラッパーライブラリを作成しました。
我々はこのライブラリを用いて、Arm-v7タブレットの統合GPU上でのDBSCANとKmeansアルゴリズムの性能を比較した。
論文 参考訳(メタデータ) (2021-12-09T09:44:55Z) - Data-Efficient Instance Segmentation with a Single GPU [88.31338435907304]
我々は2021年のVIPriors Instance Challengeで使用したデータ効率のセグメンテーション手法を紹介した。
私たちのソリューションは、強力なツールボックスであるmmdetectionをベースにした、Swin Transformerの修正版です。
本手法は,全競技者の2位である0.592のAP@0.50:0.95(medium)を達成した。
論文 参考訳(メタデータ) (2021-10-01T07:36:20Z) - Hybrid Models for Learning to Branch [81.93868699246214]
我々はCPUマシン上で効率的な分岐を行うための新しいハイブリッドアーキテクチャを提案する。
提案アーキテクチャは,GNNの表現力と分岐処理のための計算コストの低い多層パーセプトロン(MLP)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-26T21:03:45Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。