論文の概要: Polynomial Surrogate Training for Differentiable Ternary Logic Gate Networks
- arxiv url: http://arxiv.org/abs/2603.00302v1
- Date: Fri, 27 Feb 2026 20:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.136238
- Title: Polynomial Surrogate Training for Differentiable Ternary Logic Gate Networks
- Title(参考訳): 微分可能な3次論理ゲートネットワークのためのポリノミアルサロゲートトレーニング
- Authors: Sai Sandeep Damera, Ryan Matheu, Aniruddh G. Puranic, John S. Baras,
- Abstract要約: 学習可能な9つの係数を持つ3次ニューロンを次数$(2,2)$で表すPST(Polynomial Surrogate Training)を導入する。
PST はバイナリ DLGN よりも高速に$2-$3times を訓練し、機能的に多様である真の三次ゲートを発見する。
- 参考スコア(独自算出の注目度): 3.2249474972573555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentiable logic gate networks (DLGNs) learn compact, interpretable Boolean circuits via gradient-based training, but all existing variants are restricted to the 16 two-input binary gates. Extending DLGNs to Ternary Kleene $K_3$ logic and training DTLGNs where the UNKNOWN state enables principled abstention under uncertainty is desirable. However, the support set of potential gates per neuron explodes to $19{,}683$, making the established softmax-over-gates training approach intractable. We introduce Polynomial Surrogate Training (PST), which represents each ternary neuron as a degree-$(2,2)$ polynomial with 9 learnable coefficients (a $2{,}187\times$ parameter reduction) and prove that the gap between the trained network and its discretized logic circuit is bounded by a data-independent commitment loss that vanishes at convergence. Scaling experiments from 48K to 512K neurons on CIFAR-10 demonstrate that this hardening gap contracts with overparameterization. Ternary networks train $2$-$3\times$ faster than binary DLGNs and discover true ternary gates that are functionally diverse. On synthetic and tabular tasks we find that the UNKNOWN output acts as a Bayes-optimal uncertainty proxy, enabling selective prediction in which ternary circuits surpass binary accuracy once low-confidence predictions are filtered. More broadly, PST establishes a general polynomial-surrogate methodology whose parameterization cost grows only quadratically with logic valence, opening the door to many-valued differentiable logic.
- Abstract(参考訳): 微分論理ゲートネットワーク(DLGN)は、勾配に基づくトレーニングを通じてコンパクトで解釈可能なブール回路を学習するが、既存の全ての変種は16の2入力バイナリゲートに制限される。
DLGN を Ternary Kleene $K_3$ logic and training DTLGNs where the UNKNOWN state allows principled abstention under uncertainty に拡張することが望ましい。
しかし、ニューロン1個あたりの電位ゲートの支持セットは19{,}683$に爆発し、確立されたソフトマックスオーバゲートトレーニングアプローチは難航する。
我々は,3次ニューロンを9つの学習可能な係数を持つ次数(2,2)$多項式(2,2)$パラメータ還元)として表現し,学習されたネットワークと離散化された論理回路とのギャップが収束時に消失するデータ独立のコミットメント損失によって束縛されていることを証明した。
CIFAR-10上の48Kニューロンから512Kニューロンへのスケーリング実験は、この硬化ギャップがオーバーパラメータ化と一致することを示した。
ターナリーネットワークはバイナリ DLGN よりも高速な$2-$3\times を訓練し、機能的に多様である真の3次ゲートを発見する。
合成および表型タスクでは、UNKNOWN出力がベイズ最適不確実性プロキシとして機能し、低信頼度予測がフィルタリングされると、3次回路が二分精度を超える選択的な予測を可能にする。
より広範に、PSTは、パラメータ化コストが論理価で2次的にしか増加しない一般的な多項式代理手法を確立し、多くの値の微分可能な論理への扉を開く。
関連論文リスト
- Learning with Boolean threshold functions [0.013714053458441644]
本研究では,各ノードの値が厳格に$pm 1$であるスパースデータ上でニューラルネットワークを訓練する手法を開発した。
様々なタスクにまたがって、この手法はニューラルネットワークの学習に有効で効率的な基礎を提供する。
論文 参考訳(メタデータ) (2026-02-19T16:07:25Z) - Differentiable Logical Programming for Quantum Circuit Discovery and Optimization [0.15229257192293197]
本稿では,量子回路設計を微分可能な論理プログラミング問題として再設計する,ニューロシンボリック・フレームワークを提案する。
我々のモデルは、学習可能で連続的な真理値のセットとして、潜在的な量子ゲートとパラメータ化された操作の足場を表す」。
本稿では,133量子ビットのIBM Torinoプロセッサ上でのハードウェア・アウェア適応実験について報告する。
論文 参考訳(メタデータ) (2026-02-09T16:40:19Z) - Efficient circuit compression by multi-qudit entangling gates in linear optical quantum computation [1.9157770789584179]
LOQCの複数モードで符号化されたキューディットに対するマルチレベル制御ent-Zゲートの存在を示す。
このような演算を実現するための明確な線形光学スキームを提案する。
この結果から,LOQCアーキテクチャのスケーラビリティの限界が大幅に改善され,性能が大幅に向上した。
論文 参考訳(メタデータ) (2026-02-09T08:52:41Z) - NEXUS: Bit-Exact ANN-to-SNN Equivalence via Neuromorphic Gate Circuits with Surrogate-Free Training [0.7614628596146601]
スパイキングニューラルネットワーク(SNN)は、イベント駆動の空間性を通じてエネルギー効率の高いコンピューティングを約束する。
既存のアプローチでは、離散スパイクで連続的な値を近似することで精度を犠牲にしている。
ビットエクササイズ ANN-to-SNN 等価性を実現するフレームワークであるNEXUS を提案する。
論文 参考訳(メタデータ) (2026-01-29T05:23:56Z) - Verifiable Quantum Advantage via Optimized DQI Circuits [2.149968465453488]
Decoded Quantum Interferometry (DQI) はスーパーポリノミカル量子スピードアップのためのフレームワークを提供する。
DQIをリードソロモン(Reed-Solomon, RS)コードである最適多項式区間(OPI)問題に適用する。
我々は、OPIのDQIが、最適スピードアップによる検証可能な量子優位性の最初の候補であることを示す。
論文 参考訳(メタデータ) (2025-10-13T03:19:28Z) - R-Stitch: Dynamic Trajectory Stitching for Efficient Reasoning [80.104336426172]
CoT(Chain-of- Thought)は、大規模言語モデルの問題解決能力を高める。
CoTは長い自己回帰軌道のためにかなりの推論コストを発生させる。
トレーニング不要なハイブリッドデコーディングフレームワークであるR-Stitchを紹介する。
論文 参考訳(メタデータ) (2025-07-23T08:14:36Z) - Reasoning by Superposition: A Theoretical Perspective on Chain of Continuous Thought [64.43689151961054]
連続CoTのD$ステップを持つ2層トランスが有向グラフ到達可能性問題を解くことができることを証明した。
我々の構成では、各連続思考ベクトルは複数の探索フロンティアを同時に符号化する重ね合わせ状態である。
論文 参考訳(メタデータ) (2025-05-18T18:36:53Z) - Efficient fault-tolerant code switching via one-way transversal CNOT gates [0.0]
スイッチングゲートのみを用いることで、FT回路設計の制約を尊重するコードスキームを提案する。
我々は、既存の量子プロセッサの動作に適した低距離カラーコードへのスキームの適用を解析する。
論理的補助量子ビットが十分に確実に準備できることを前提として、このスキームを大規模な並列化でどのように実装できるかを論じる。
論文 参考訳(メタデータ) (2024-09-20T12:54:47Z) - Identifying good directions to escape the NTK regime and efficiently
learn low-degree plus sparse polynomials [52.11466135206223]
広帯域2層ニューラルネットワークはターゲット関数に適合するためにTangent Kernel(NTK)とQuadNTKを併用可能であることを示す。
これにより、終端収束が得られ、NTKとQuadNTKの双方に対して証明可能なサンプル改善が保証される。
論文 参考訳(メタデータ) (2022-06-08T06:06:51Z) - GDP: Stabilized Neural Network Pruning via Gates with Differentiable
Polarization [84.57695474130273]
ゲートベースまたは重要度に基づくプルーニング手法は、重要度が最小のチャネルを削除することを目的としている。
GDPは、各チャネルのオン・アンド・オフを制御するために、ベルやホイッスルのない畳み込み層の前に接続することができる。
CIFAR-10とImageNetデータセットを用いて行った実験は、提案したGDPが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-09-06T03:17:10Z) - Realization of arbitrary doubly-controlled quantum phase gates [62.997667081978825]
本稿では,最適化問題における短期量子優位性の提案に着想を得た高忠実度ゲートセットを提案する。
3つのトランペット四重項のコヒーレントな多レベル制御を編成することにより、自然な3量子ビット計算ベースで作用する決定論的連続角量子位相ゲートの族を合成する。
論文 参考訳(メタデータ) (2021-08-03T17:49:09Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。