論文の概要: G-Net: A Provably Easy Construction of High-Accuracy Random Binary Neural Networks
- arxiv url: http://arxiv.org/abs/2511.21063v1
- Date: Wed, 26 Nov 2025 05:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.973584
- Title: G-Net: A Provably Easy Construction of High-Accuracy Random Binary Neural Networks
- Title(参考訳): G-Net: 高精度ランダム二元ニューラルネットワークの構築
- Authors: Alireza Aghasi, Nicholas Marshall, Saeid Pourmand, Wyatt Whiting,
- Abstract要約: 可変精度でバイナリニューラルネットワークを構築するための新しいアルゴリズムを提案する。
我々は、ハミング距離を備えたハイパーキューブの点としてデータのバイナリ埋め込みを考える。
我々のモデルは畳み込みニューラルネットワークの精度と一致し、以前のHDCモデルよりも大きなマージンで優れている。
- 参考スコア(独自算出の注目度): 1.631115063641726
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel randomized algorithm for constructing binary neural networks with tunable accuracy. This approach is motivated by hyperdimensional computing (HDC), which is a brain-inspired paradigm that leverages high-dimensional vector representations, offering efficient hardware implementation and robustness to model corruptions. Unlike traditional low-precision methods that use quantization, we consider binary embeddings of data as points in the hypercube equipped with the Hamming distance. We propose a novel family of floating-point neural networks, G-Nets, which are general enough to mimic standard network layers. Each floating-point G-Net has a randomized binary embedding, an embedded hyperdimensional (EHD) G-Net, that retains the accuracy of its floating-point counterparts, with theoretical guarantees, due to the concentration of measure. Empirically, our binary models match convolutional neural network accuracies and outperform prior HDC models by large margins, for example, we achieve almost 30\% higher accuracy on CIFAR-10 compared to prior HDC models. G-Nets are a theoretically justified bridge between neural networks and randomized binary neural networks, opening a new direction for constructing robust binary/quantized deep learning models. Our implementation is available at https://github.com/GNet2025/GNet.
- Abstract(参考訳): 可変精度でバイナリニューラルネットワークを構築するための新しいランダム化アルゴリズムを提案する。
このアプローチは、高次元ベクトル表現を活用する脳に触発されたパラダイムである超次元コンピューティング(HDC)によって動機付けられ、効率的なハードウェア実装とモデル破損に対する堅牢性を提供する。
量子化を利用する従来の低精度法とは異なり、ハミング距離を備えたハイパーキューブの点としてデータのバイナリ埋め込みを考える。
本稿では,標準的なネットワーク層を模倣するほど汎用的な,浮動小数点ニューラルネットワーク G-Nets の新たなファミリーを提案する。
各浮動小数点G-Netはランダム化された二元埋め込み(埋め込み超次元(EHD)G-Net)を持ち、その浮動小数点G-Netの精度は測定の集中によって理論的に保証される。
経験的には、我々のバイナリモデルは畳み込みニューラルネットワークの精度に一致し、従来のHDCモデルよりも大きなマージンで、例えば、従来のHDCモデルと比較してCIFAR-10でほぼ30倍の精度を達成する。
G-Netは、ニューラルネットワークとランダム化されたバイナリニューラルネットワークの間の理論的に正当化されたブリッジであり、堅牢なバイナリ/量子化されたディープラーニングモデルを構築するための新しい方向を開く。
私たちの実装はhttps://github.com/GNet2025/GNetで公開されています。
関連論文リスト
- Join the High Accuracy Club on ImageNet with A Binary Neural Network
Ticket [10.552465253379134]
ILSVRC-2012 ImageNetにおいて、バイナリニューラルネットワークが重要な精度レベル(例えば80%)をどうやって達成できるのか?
我々は、バイナリアーキテクチャとその最適化プロセスの包括的な研究に基づいて、新しいバイナリアーキテクチャBNextを設計する。
極めて正確なバイナリモデルを訓練する際の直感的オーバーフィッティング問題を軽減するために,新しい知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2022-11-23T13:08:58Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Compressing deep neural networks on FPGAs to binary and ternary
precision with HLS4ML [13.325670094073383]
本稿では, hls4mlライブラリにおける2次ニューラルネットワークと3次ニューラルネットワークの実装について述べる。
モデル精度と資源消費のトレードオフについて論じる。
二分法と三分法の実装は、FPGAリソースを劇的に減らしながら高い精度の実装と類似した性能を持つ。
論文 参考訳(メタデータ) (2020-03-11T10:46:51Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。