論文の概要: A Heuristic Approach to Two Level Boolean Minimization Derived from
Karnaugh Mapping
- arxiv url: http://arxiv.org/abs/2008.09307v3
- Date: Thu, 27 Aug 2020 05:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 22:23:14.282098
- Title: A Heuristic Approach to Two Level Boolean Minimization Derived from
Karnaugh Mapping
- Title(参考訳): カルナウマッピングに基づく2レベルブール最小化へのヒューリスティックアプローチ
- Authors: Ethan L. Childerhose, Jingzhou Liu
- Abstract要約: Karnaugh や Quine-McCluskey のような既存の手法は、リテラルの量が増加するにつれて、複雑さが指数関数的に増加するのでスケールできない。
この新しい手法は、基本写像法、カルノー写像、および真理表から派生した。
- 参考スコア(独自算出の注目度): 4.0556962308523685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The following paper presents a heuristic method by which sum-of-product
Boolean expressions can be simplified with a specific focus on the removal of
redundant and selective prime implicants. Existing methods, such as the
Karnaugh map and the Quine-McCluskey method [1, 2], fail to scale since they
increase exponentially in complexity as the quantity of literals increases,
doing as such to ensure the solution is algorithmically obtained. By employing
a heuristic model, nearly all expressions can be simplified at an overall
reduction in computational complexity. This new method was derived from the
fundamental Boolean laws, Karnaugh mapping, as well as truth tables.
- Abstract(参考訳): 本稿では, 生産総和のブール表現を, 冗長かつ選択的主成分の除去に焦点を絞って単純化するヒューリスティックな手法を提案する。
カルナフ写像やクワイン・マクルーキー法[1, 2]のような既存の手法では、リテラルの量が増加するにつれて複雑さが指数関数的に増加するため、解がアルゴリズム的に得られるようにスケールできない。
ヒューリスティックモデルを用いることで、ほぼすべての式を計算複雑性の全体的な低減で単純化することができる。
この新しい手法は、ブール法の基本法則、カルノー写像、および真理表から派生した。
関連論文リスト
- Bregman-divergence-based Arimoto-Blahut algorithm [53.64687146666141]
本稿では,Arimoto-BlahutアルゴリズムをBregman-Diversergenceシステム上で定義された一般関数に一般化する。
本稿では,古典的および量子速度歪み理論に適用可能な凸最適化自由アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-10T06:16:24Z) - Inexact Simplification of Symbolic Regression Expressions with Locality-sensitive Hashing [0.7373617024876725]
シンボリック回帰は、データセットに正確に適合するパラメトリックモデルを検索し、単純さと解釈可能性の優先順位付けを行う。
高速な代数的単純化を適用することは、式を完全に単純化するものではなく、式のサイズや複雑さによって正確な方法が実現できない可能性がある。
局所性に敏感なハッシュ(LHS)を用いた効率的なメモ化を用いたSRの単純化と肥大化制御を提案する。
論文 参考訳(メタデータ) (2024-04-08T22:54:14Z) - Learning Large-Scale MTP$_2$ Gaussian Graphical Models via Bridge-Block
Decomposition [15.322124183968635]
より小型のサブプロブレムを用いて問題全体を等価に最適化できることを示す。
実践的な側面から、この単純で証明可能な規律は、大きな問題を小さな抽出可能なものに分解するために適用することができる。
論文 参考訳(メタデータ) (2023-09-23T15:30:34Z) - A Circuit Complexity Formulation of Algorithmic Information Theory [1.5483078145498086]
インダクティブ推論のソロモノフ理論に着想を得て,回路複雑性に基づく先行モデルを提案する。
回路複雑性によって測定された単純な説明に対する帰納的バイアスがこの問題に適切であると主張する。
論文 参考訳(メタデータ) (2023-06-25T01:30:37Z) - Sample Complexity for Quadratic Bandits: Hessian Dependent Bounds and
Optimal Algorithms [64.10576998630981]
最適なヘッセン依存型サンプルの複雑さを, 初めて厳密に評価した。
ヘシアン非依存のアルゴリズムは、すべてのヘシアンインスタンスに対して最適なサンプル複雑さを普遍的に達成する。
本アルゴリズムにより得られたサンプルの最適複雑さは,重み付き雑音分布においても有効である。
論文 参考訳(メタデータ) (2023-06-21T17:03:22Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Adaptive n-ary Activation Functions for Probabilistic Boolean Logic [2.294014185517203]
マッチングやアリティ向上の活性化関数を用いて,任意の論理を単一層で学習できることが示される。
我々は,非ゼロパラメータの数を信念関数の有効アリティに直接関連付ける基礎を用いて,信念表を表現する。
これにより、パラメータの間隔を誘導することで論理的複雑性を低減する最適化アプローチが開かれる。
論文 参考訳(メタデータ) (2022-03-16T22:47:53Z) - Machine Learning Trivializing Maps: A First Step Towards Understanding
How Flow-Based Samplers Scale Up [0.6445605125467573]
自明な写像の近似は、可逆で微分可能なモデルのクラスによって「機械学習」できることを示す。
最大202ドルの格子サイトを持つ2次元の$phi4$を用いて、探索的スケーリング研究を行う。
論文 参考訳(メタデータ) (2021-12-31T16:17:19Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。