論文の概要: Learning with Boolean threshold functions
- arxiv url: http://arxiv.org/abs/2602.17493v1
- Date: Thu, 19 Feb 2026 16:07:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.200909
- Title: Learning with Boolean threshold functions
- Title(参考訳): ブールしきい値関数による学習
- Authors: Veit Elser, Manish Krishan Lal,
- Abstract要約: 本研究では,各ノードの値が厳格に$pm 1$であるスパースデータ上でニューラルネットワークを訓練する手法を開発した。
様々なタスクにまたがって、この手法はニューラルネットワークの学習に有効で効率的な基礎を提供する。
- 参考スコア(独自算出の注目度): 0.013714053458441644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a method for training neural networks on Boolean data in which the values at all nodes are strictly $\pm 1$, and the resulting models are typically equivalent to networks whose nonzero weights are also $\pm 1$. The method replaces loss minimization with a nonconvex constraint formulation. Each node implements a Boolean threshold function (BTF), and training is expressed through a divide-and-concur decomposition into two complementary constraints: one enforces local BTF consistency between inputs, weights, and output; the other imposes architectural concurrence, equating neuron outputs with downstream inputs and enforcing weight equality across training-data instantiations of the network. The reflect-reflect-relax (RRR) projection algorithm is used to reconcile these constraints. Each BTF constraint includes a lower bound on the margin. When this bound is sufficiently large, the learned representations are provably sparse and equivalent to networks composed of simple logical gates with $\pm 1$ weights. Across a range of tasks -- including multiplier-circuit discovery, binary autoencoding, logic-network inference, and cellular automata learning -- the method achieves exact solutions or strong generalization in regimes where standard gradient-based methods struggle. These results demonstrate that projection-based constraint satisfaction provides a viable and conceptually distinct foundation for learning in discrete neural systems, with implications for interpretability and efficient inference.
- Abstract(参考訳): 我々は,すべてのノードの値が厳密に$\pm 1$であり,結果として得られるモデルは,非ゼロウェイトが$\pm 1$であるネットワークと同値であるブールデータ上でのニューラルネットワークのトレーニング方法を開発した。
この方法は損失最小化を非凸制約式に置き換える。
各ノードはブールしきい値関数(BTF)を実装し、トレーニングは2つの相補的な制約(入力、重み、出力間の局所的なBTF一貫性を強制する。
リフレクション・レフレクト・レラックス(RRR)プロジェクションアルゴリズムは、これらの制約を緩和するために用いられる。
各BTF制約は、マージンの低い境界を含む。
この境界が十分に大きい場合、学習された表現は証明的にスパースであり、$\pm 1$ weightsの単純な論理ゲートからなるネットワークと同値である。
乗算器回路探索、バイナリオートエンコーディング、論理ネットワーク推論、セルラーオートマトン学習など、様々なタスクをこなすこの手法は、標準勾配に基づく手法が苦労する状況下で、正確な解や強力な一般化を達成する。
これらの結果は、プロジェクションに基づく制約満足度が、離散神経系における学習の現実的で概念的に異なる基盤となり、解釈可能性と効率的な推論に影響を及ぼすことを示した。
関連論文リスト
- BEP: A Binary Error Propagation Algorithm for Binary Neural Networks Training [21.908847701590428]
バイナリニューラルネットワーク(BNN)は、計算複雑性、メモリフットプリント、エネルギー消費を大幅に削減する。
しかしながら、勾配に基づく最適化によるBNNのトレーニングは、変数の離散的な性質のため、依然として困難である。
本稿では、バックプロパゲーション・チェーン・ルールの原則化された離散的アナログを確立するための最初の学習アルゴリズムであるBEP(Binary Error Propagation)を提案する。
論文 参考訳(メタデータ) (2025-12-03T19:03:55Z) - A Constructive Framework for Nondeterministic Automata via Time-Shared, Depth-Unrolled Feedforward Networks [0.0]
非決定論的有限オートマトン(NFA)の時間分割・深度制御型フィードフォワードネットワーク(TS-FFN)を用いたフォーマルで建設的なシミュレーションフレームワークを提案する。
我々の定式化は、二進ベクトルとしてのオートマトン状態、スパース行列変換としての遷移、および共有しきい値更新の合成としての$varepsilon$-closuresを含む非決定的分岐を含む非決定論的分岐を象徴的に符号化する。
論文 参考訳(メタデータ) (2025-05-30T01:18:35Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Unlocking Deep Learning: A BP-Free Approach for Parallel Block-Wise
Training of Neural Networks [9.718519843862937]
ブロックワイズBPフリー(BWBPF)ニューラルネットワークを導入し、局所誤差信号を利用してサブニューラルネットワークを個別に最適化する。
実験結果から,VGGとResNetのバラツキに対して,トランスファー可能な疎結合アーキテクチャを同定できることがわかった。
論文 参考訳(メタデータ) (2023-12-20T08:02:33Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Bimodal Distributed Binarized Neural Networks [3.0778860202909657]
しかし、バイナリ化技術は、完全精度のものと比べれば、不適格な性能劣化に悩まされる。
バイモーダル分散バイナライゼーション法(メソッド名)を提案する。
これにより、ネットワーク重みのバイモーダルな分布がクルトーシス正規化によって引き起こされる。
論文 参考訳(メタデータ) (2022-04-05T06:07:05Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - SiMaN: Sign-to-Magnitude Network Binarization [165.5630656849309]
重みバイナライゼーションは、高倍率重みを+1s、0sに符号化することで分析ソリューションを提供する。
二元化ネットワークの学習重みは、エントロピーを許さないラプラシアン分布に概ね従うことが証明される。
CIFAR-10 と ImageNet を用いて,シマナライゼーション (SiMaN) と呼ばれる手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-16T07:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。