論文の概要: Learning Compact Boolean Networks
- arxiv url: http://arxiv.org/abs/2602.05830v1
- Date: Thu, 05 Feb 2026 16:19:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:09.034654
- Title: Learning Compact Boolean Networks
- Title(参考訳): 小型ブールネットワークの学習
- Authors: Shengpu Wang, Yuhao Mao, Yani Zhang, Martin Vechev,
- Abstract要約: 浮動小数点ニューラルネットワークは現代の機械学習を支配しているが、かなりの推論コストがかかる。
パラメータを加味せずに効率的な接続を学習するための新しい手法を提案する。
次に,ブール演算数を削減した局所性を利用した新しい畳み込みブールアーキテクチャを提案する。
第3に,連続値ネットワークをブール計算に変換する際の精度低下を低減するための適応的な離散化手法を提案する。
- 参考スコア(独自算出の注目度): 4.625995357657371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Floating-point neural networks dominate modern machine learning but incur substantial inference cost, motivating interest in Boolean networks for resource-constrained settings. However, learning compact and accurate Boolean networks is challenging due to their combinatorial nature. In this work, we address this challenge from three different angles: learned connections, compact convolutions and adaptive discretization. First, we propose a novel strategy to learn efficient connections with no additional parameters and negligible computational overhead. Second, we introduce a novel convolutional Boolean architecture that exploits the locality with reduced number of Boolean operations than existing methods. Third, we propose an adaptive discretization strategy to reduce the accuracy drop when converting a continuous-valued network into a Boolean one. Extensive results on standard vision benchmarks demonstrate that the Pareto front of accuracy vs. computation of our method significantly outperforms prior state-of-the-art, achieving better accuracy with up to 37x fewer Boolean operations.
- Abstract(参考訳): 浮動小数点ニューラルネットワークは現代の機械学習を支配しているが、かなりの推論コストを伴い、リソース制約された設定に対するブールネットワークへの関心を動機付けている。
しかし、コンパクトで正確なブールネットワークの学習は、その組み合わせの性質から困難である。
本研究では,この課題を,学習的接続,コンパクトな畳み込み,適応的離散化という3つの角度から解決する。
まず,パラメータを加味せずに効率的な接続を学習し,計算オーバーヘッドを無視する手法を提案する。
第2に,既存手法に比べてブール演算数を削減した局所性を利用した新しい畳み込みブールアーキテクチャを提案する。
第3に,連続値ネットワークをブールネットワークに変換する際の精度低下を低減するための適応的な離散化戦略を提案する。
標準ビジョンベンチマークの結果から,Paretoの精度と手法の計算精度は従来よりも有意に向上し,Boolean演算の最大37倍の精度で精度が向上した。
関連論文リスト
- Differentiable Weightless Neural Networks [1.453874055504475]
本稿では,相互接続型ルックアップテーブルに基づくモデルであるDWNを提案する。
本稿では,これらのモデルの精度と効率をさらに向上させるために,学習可能なマッピング,学習可能なリダクション,スペクトル正規化を提案する。
論文 参考訳(メタデータ) (2024-10-14T21:43:48Z) - Towards Narrowing the Generalization Gap in Deep Boolean Networks [3.230778132936486]
本稿では,従来のブリアンネットワークを越えつつ,ブリアンネットワークの深層化を図る戦略について検討する。
本稿では,論理的スキップ接続と空間性保持サンプリングを含む新しい手法を提案し,視覚タスクで検証する。
本稿では,1ビット論理演算による計算コストを最小化しながら,深いBooleanネットワークがハイパフォーマンスを維持する方法を示す。
論文 参考訳(メタデータ) (2024-09-06T09:16:36Z) - BOLD: Boolean Logic Deep Learning [1.4272256806865107]
本稿では、ブール重みと入力からなるニューロンを、降下勾配や実算術の代わりにブール論理を用いてブール領域で効率的に訓練できるようなブール変動の概念を導入する。
提案手法は,ImageNet分類におけるベースライン完全精度を実現し,セマンティックセグメンテーションの最先端結果を上回った。
トレーニングと推論の双方において、エネルギー消費を著しく減少させる。
論文 参考訳(メタデータ) (2024-05-25T19:50:23Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - DenseShift: Towards Accurate and Efficient Low-Bit Power-of-Two
Quantization [27.231327287238102]
本稿では,シフトネットワークの精度を大幅に向上させるDenseShiftネットワークを提案する。
様々なコンピュータビジョンと音声タスクに関する実験により、DenseShiftは既存の低ビット乗算自由ネットワークよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-08-20T15:17:40Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。