論文の概要: Circuit Transformer: A Transformer That Preserves Logical Equivalence
- arxiv url: http://arxiv.org/abs/2403.13838v2
- Date: Sun, 02 Feb 2025 03:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:03:34.899332
- Title: Circuit Transformer: A Transformer That Preserves Logical Equivalence
- Title(参考訳): 回路変換器:論理等価性を保存する変換器
- Authors: Xihan Li, Xing Li, Lei Chen, Xing Zhang, Mingxuan Yuan, Jun Wang,
- Abstract要約: 生成型ニューラルモデル "Circuit Transformer" を導入し,論理回路を与えられたブール関数と厳密に等価に生成する。
回路の特定の目的を最適化するためにマルコフ決定過程の定式化も提案されている。
- 参考スコア(独自算出の注目度): 20.8279111910994
- License:
- Abstract: Implementing Boolean functions with circuits consisting of logic gates is fundamental in digital computer design. However, the implemented circuit must be exactly equivalent, which hinders generative neural approaches on this task due to their occasionally wrong predictions. In this study, we introduce a generative neural model, the "Circuit Transformer", which eliminates such wrong predictions and produces logic circuits strictly equivalent to given Boolean functions. The main idea is a carefully designed decoding mechanism that builds a circuit step-by-step by generating tokens, which has beneficial "cutoff properties" that block a candidate token once it invalidate equivalence. In such a way, the proposed model works similar to typical LLMs while logical equivalence is strictly preserved. A Markov decision process formulation is also proposed for optimizing certain objectives of circuits. Experimentally, we trained an 88-million-parameter Circuit Transformer to generate equivalent yet more compact forms of input circuits, outperforming existing neural approaches on both synthetic and real world benchmarks, without any violation of equivalence constraints.
- Abstract(参考訳): 論理ゲートからなる回路によるブール関数の実装は、デジタルコンピュータ設計において基礎となる。
しかし、実装された回路は、全く同じでなければならない。これは、時折誤った予測のために、このタスクの生成的ニューラルネットワークアプローチを妨げる。
本研究では,生成型ニューラルモデル "Circuit Transformer" を導入し,そのような誤った予測を排除し,与えられたブール関数と厳密に等価な論理回路を生成する。
主なアイデアは、トークンを生成して回路をステップバイステップで構築する、慎重に設計された復号機構であり、等価性を無効にすると候補トークンをブロックする有益な「カットオフ特性」を持つ。
このようにして提案したモデルは、論理的等価性が厳密に保存されている間、典型的なLLMとよく似ている。
回路の特定の目的を最適化するためにマルコフ決定過程の定式化も提案されている。
実験では88万パラメーター回路変換器を訓練し、等価だがよりコンパクトな入力回路を生成する。
関連論文リスト
- Architect of the Bits World: Masked Autoregressive Modeling for Circuit Generation Guided by Truth Table [5.300504429005315]
本稿では,回路生成のための条件生成モデルと微分可能なアーキテクチャ探索(DAS)を組み合わせた新しい手法を提案する。
まず、Circuit AutoEncoderに基づいてトレーニングされた回路トークンであるCircuitVQを紹介する。
次に,トークンとしてCircuitVQを活用するマスク付き自己回帰モデルであるCircuitARを開発した。
論文 参考訳(メタデータ) (2025-02-18T11:13:03Z) - Emergent unitary designs for encoded qubits from coherent errors and syndrome measurements [1.8854166566682866]
曲面符号における符号化量子ビットのユニタリ設計を効率よく生成する手法を提案する。
論理的ユニタリのアンサンブルが熱力学限界におけるユニタリ設計に収束することを数値的に示す。
本結果は,符号化量子ビット上のユニタリ設計を実現するための実用的な方法を提供する。
論文 参考訳(メタデータ) (2024-12-05T18:36:14Z) - Algorithmic Capabilities of Random Transformers [49.73113518329544]
埋め込み層のみを最適化したランダムトランスフォーマーによって、どのような関数が学習できるかを検討する。
これらのランダムなトランスフォーマーは、幅広い意味のあるアルゴリズムタスクを実行することができる。
以上の結果から,これらのモデルが訓練される前にも,アルゴリズム能力がトランスフォーマに存在することが示唆された。
論文 参考訳(メタデータ) (2024-10-06T06:04:23Z) - Logic Synthesis with Generative Deep Neural Networks [20.8279111910994]
我々は、Circuit Transformerモデルに基づく論理合成書き換え演算子「ctrw」(Circuit Transformer Rewriting)を導入する。
本稿では,論理学に適した回路変換器の2段階学習方式を提案する。
我々はまた、Circuit Transformerと最先端の書き直し技術を統合してスケーラビリティの問題に対処し、DAG対応の書き直しをガイドできるようにする。
論文 参考訳(メタデータ) (2024-06-07T07:16:40Z) - Benchmarking logical three-qubit quantum Fourier transform encoded in the Steane code on a trapped-ion quantum computer [3.2821436094760026]
量子変換のための3量子ビット回路を論理的に符号化した。
我々は、量子量子コンピュータQuantinuum H2-11の回路をベンチマークする。
論理的QFTベンチマークの結果を,論理的成分ベンチマークに基づく予測と比較する。
論文 参考訳(メタデータ) (2024-04-12T17:27:27Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Neural Combinatorial Logic Circuit Synthesis from Input-Output Examples [10.482805367361818]
本稿では,入力出力の例から論理回路を合成するための,新しい完全説明可能なニューラルアプローチを提案する。
我々の方法は、ほぼ任意の原子の選択に利用できる。
論文 参考訳(メタデータ) (2022-10-29T14:06:42Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Hardware-Encoding Grid States in a Non-Reciprocal Superconducting
Circuit [62.997667081978825]
本稿では、非相互デバイスと、基底空間が2倍縮退し、基底状態がGottesman-Kitaev-Preskill(GKP)符号の近似符号であるジョセフソン接合からなる回路設計について述べる。
この回路は、電荷やフラックスノイズなどの超伝導回路の一般的なノイズチャネルに対して自然に保護されており、受動的量子誤差補正に使用できることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T16:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。