論文の概要: WARP Logic Neural Networks
- arxiv url: http://arxiv.org/abs/2602.03527v1
- Date: Tue, 03 Feb 2026 13:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.475036
- Title: WARP Logic Neural Networks
- Title(参考訳): WARP論理ニューラルネットワーク
- Authors: Lino Gerlach, Thore Gerlach, Liv Våge, Elliott Kauffman, Isobel Ojalvo,
- Abstract要約: WAlsh Relaxation for Probabilistic (WARP) logic neural networkを紹介する。
WARPは、ハードウェアネイティブ論理ブロックの組み合わせを効率的に学習する勾配ベースのフレームワークである。
WARPはブール関数を正確に学習する上で最もパラメータ効率のよい表現であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fast and efficient AI inference is increasingly important, and recent models that directly learn low-level logic operations have achieved state-of-the-art performance. However, existing logic neural networks incur high training costs, introduce redundancy or rely on approximate gradients, which limits scalability. To overcome these limitations, we introduce WAlsh Relaxation for Probabilistic (WARP) logic neural networks -- a novel gradient-based framework that efficiently learns combinations of hardware-native logic blocks. We show that WARP yields the most parameter-efficient representation for exactly learning Boolean functions and that several prior approaches arise as restricted special cases. Training is improved by introducing learnable thresholding and residual initialization, while we bridge the gap between relaxed training and discrete logic inference through stochastic smoothing. Experiments demonstrate faster convergence than state-of-the-art baselines, while scaling effectively to deeper architectures and logic functions with higher input arity.
- Abstract(参考訳): 高速で効率的なAI推論はますます重要になってきており、低レベルの論理操作を直接学習する最近のモデルは最先端のパフォーマンスを実現している。
しかし、既存のロジックニューラルネットワークは、高いトレーニングコストを発生させ、冗長性を導入するか、スケーラビリティを制限する近似勾配に依存する。
これらの制限を克服するために、WAlsh Relaxation for Probabilistic(WARP)ロジックニューラルネットワークを導入します。
我々は、WARPがブール関数を正確に学習する上で最もパラメータ効率のよい表現となり、いくつかの事前アプローチが制限された特殊ケースとして生じることを示す。
学習可能なしきい値設定と残留初期化を導入することでトレーニングの改善を実現し,確率的平滑化による学習学習と離散論理推論のギャップを埋める。
実験では、最先端のベースラインよりも高速な収束を示しながら、より深いアーキテクチャや高い入力アリティを持つ論理関数に効果的にスケーリングする。
関連論文リスト
- DeepProofLog: Efficient Proving in Deep Stochastic Logic Programs [30.18197334181211]
本稿では,論理プログラムに基づく新しいNeSyシステムであるDeepProofLogを紹介する。
DPrLは、すべての導出ステップをニューラルネットワークでパラメータ化し、証明システム上で効率的な神経誘導を可能にする。
標準的なNeSyベンチマークとナレッジグラフ推論タスクの実験により、DPrLが既存のNeSyシステムより優れていることを示す。
論文 参考訳(メタデータ) (2025-11-11T18:58:03Z) - WARP-LUTs - Walsh-Assisted Relaxation for Probabilistic Look Up Tables [0.0]
確率的ルックアップテーブル(WARP-LUT)のウォルシュ支援緩和
WARP-LUT(WARP-LUTs)は、学習可能なパラメータをかなり少ない論理ゲートの組み合わせを効率的に学習する、勾配に基づく新しい手法である。
我々は, WARP-LUT が DLGN と比較して CIFAR-10 の収束を著しく高速化し, 精度は同等であることを示した。
論文 参考訳(メタデータ) (2025-10-17T13:44:36Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。