論文の概要: Pruning Boolean d-DNNF Circuits Through Tseitin-Awareness
- arxiv url: http://arxiv.org/abs/2407.17951v1
- Date: Thu, 25 Jul 2024 11:15:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:18:40.988429
- Title: Pruning Boolean d-DNNF Circuits Through Tseitin-Awareness
- Title(参考訳): Tseitin-Awarenessによるブールd-DNNF回路の動作
- Authors: Vincent Derkinderen,
- Abstract要約: 一般に使われているd-DNNFコンパイル手法は、無関係なサブ回路を導入している。
本稿では,Tseitin変数とTseitinアーティファクトの両方を検出し,除去する方法について議論し,より簡潔な回路を実現する。
- 参考スコア(独自算出の注目度): 2.0069985371272114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boolean circuits in d-DNNF form enable tractable probabilistic inference. However, as a key insight of this work, we show that commonly used d-DNNF compilation approaches introduce irrelevant subcircuits. We call these subcircuits Tseitin artifacts, as they are introduced due to the Tseitin transformation step -- a well-established procedure to transform any circuit into the CNF format required by several d-DNNF knowledge compilers. We discuss how to detect and remove both Tseitin variables and Tseitin artifacts, leading to more succinct circuits. We empirically observe an average size reduction of 77.5% when removing both Tseitin variables and artifacts. The additional pruning of Tseitin artifacts reduces the size by 22.2% on average. This significantly improves downstream tasks that benefit from a more succinct circuit, e.g., probabilistic inference tasks.
- Abstract(参考訳): d-DNNF形式のブール回路は、抽出可能な確率的推論を可能にする。
しかし、この研究の重要な知見として、よく使われるd-DNNFコンパイル手法が無関係なサブ回路を導入していることを示す。
このサブ回路は、Tseitin変換ステップによって導入されたもので、任意の回路を複数のd-DNNF知識コンパイラが必要とするCNFフォーマットに変換するための確立された手順です。
本稿では,Tseitin変数とTseitinアーティファクトの両方を検出し,除去する方法について議論し,より簡潔な回路を実現する。
ティチン変数とアーティファクトの両方を取り除いた場合, 平均サイズが77.5%減少するのを実証的に観察した。
ティチンのアーティファクトが加わったことにより、サイズは平均で22.2%縮小する。
これにより、より簡潔な回路、例えば確率的推論タスクの恩恵を受ける下流タスクが大幅に改善される。
関連論文リスト
- On the Constant Depth Implementation of Pauli Exponentials [49.48516314472825]
任意の指数を$mathcalO(n)$ ancillae と 2体 XX と ZZ の相互作用を用いて一定深さの回路に分解する。
クビットリサイクルの恩恵を受ける回路の書き直し規則を導入し,本手法の正しさを実証する。
論文 参考訳(メタデータ) (2024-08-15T17:09:08Z) - Entropy-Informed Weighting Channel Normalizing Flow [7.751853409569806]
正規化および機能依存の$mathttShuffle$演算を提案し,それをバニラマルチスケールアーキテクチャに統合する。
このような操作はエントロピー増加方向の変数を誘導するので、$mathttShuffle$演算をemphEntropy-Informed Weighting Channel Normalizing Flow (EIW-Flow)と呼ぶNFを参照する。
論文 参考訳(メタデータ) (2024-07-06T04:46:41Z) - Efficient Automated Circuit Discovery in Transformers using Contextual Decomposition [10.13822875330178]
大規模言語モデルで解釈可能な回路を構築するために,変換器 (CD-T) のコンテキスト分解を導入する。
CD-Tは任意のレベルの抽象化の回路を生成でき、アテンションヘッドと同じくらいきめ細かな回路を最初に生成できる。
CD-T回路は、全てのタスクのベースラインよりも少ないノードで、オリジナルのモデルの動作を完璧に再現できることを示す。
論文 参考訳(メタデータ) (2024-07-01T01:12:20Z) - U-DiTs: Downsample Tokens in U-Shaped Diffusion Transformers [28.936553798624136]
本論文では,U-DiTモデルの性能を示すために,一連のU-DiT(U-DiTs)を提案する。
提案されたU-DiTはコスト計算の1/6でDiT-XL/2を上回った。
論文 参考訳(メタデータ) (2024-05-04T18:27:29Z) - Transformer Neural Autoregressive Flows [48.68932811531102]
正規化フロー(NF)を用いて密度推定を行う。
我々はトランスフォーマーニューラルオートレグレッシブフロー(T-NAF)と呼ばれる新しいタイプのニューラルフローを定義するためにトランスフォーマーを利用する新しい解を提案する。
論文 参考訳(メタデータ) (2024-01-03T17:51:16Z) - Cost Aggregation with 4D Convolutional Swin Transformer for Few-Shot
Segmentation [58.4650849317274]
Volumetric Aggregation with Transformers (VAT)は、数ショットセグメンテーションのためのコスト集約ネットワークである。
VATは、コスト集約が中心的な役割を果たすセマンティック対応のための最先端のパフォーマンスも達成する。
論文 参考訳(メタデータ) (2022-07-22T04:10:30Z) - Anti-Oversmoothing in Deep Vision Transformers via the Fourier Domain
Analysis: From Theory to Practice [111.47461527901318]
Vision Transformer (ViT) は先日,コンピュータビジョン問題における有望性を実証した。
ViTは観察された注意崩壊やパッチの均一性のために、深さが増加するにつれて急速に飽和する。
所望の低域制限を緩和する2つの手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T23:55:24Z) - On the realistic worst case analysis of quantum arithmetic circuits [69.43216268165402]
量子回路の設計における直観は誤解を招く可能性があることを示す。
また,T数を減らすことで,全深度を増大させることができることを示した。
リップルキャリーを用いた加算回路と乗算回路について述べる。
論文 参考訳(メタデータ) (2021-01-12T21:36:16Z) - Fast and effective techniques for T-count reduction via spider nest
identities [0.27528170226206433]
スパイダーネストアイデンティティ」の有効利用に基づくT数削減手法について述べる。
そこで本研究では,多くの回路のTカウントの改善を,コーヒーを1杯飲むのに要する時間よりも少ない実行時間で行うことにより,そのような手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-10T14:12:55Z) - Learning Likelihoods with Conditional Normalizing Flows [54.60456010771409]
条件正規化フロー(CNF)はサンプリングと推論において効率的である。
出力空間写像に対する基底密度が入力 x 上で条件づけられた CNF について、条件密度 p(y|x) をモデル化する。
論文 参考訳(メタデータ) (2019-11-29T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。