論文の概要: LILogic Net: Compact Logic Gate Networks with Learnable Connectivity for Efficient Hardware Deployment
- arxiv url: http://arxiv.org/abs/2511.12340v1
- Date: Sat, 15 Nov 2025 19:44:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.977955
- Title: LILogic Net: Compact Logic Gate Networks with Learnable Connectivity for Efficient Hardware Deployment
- Title(参考訳): LILogic Net: ハードウェアの効率的なデプロイのための学習可能な接続性を備えた小型論理ゲートネットワーク
- Authors: Katarzyna Fojcik, Renaldas Zioma, Jogundas Armaitis,
- Abstract要約: 勾配に基づく手法を用いてバイナリ論理ゲートのネットワークをトレーニングする方法を示す。
特定のデータセットに適合するために必要な論理ゲートの数を大幅に削減する方法を示す。
256,000のゲートを持つ当社最大のアーキテクチャでは、LILogicNetはCIFAR-10で60.98%のテスト精度を実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient deployment of machine learning models ultimately requires taking hardware constraints into account. The binary logic gate is the fundamental building block of all digital chips. Designing models that operate directly on these units enables energy-efficient computation. Recent work has demonstrated the feasibility of training randomly connected networks of binary logic gates (such as OR and NAND) using gradient-based methods. We extend this approach by using gradient descent not only to select the logic gates but also to optimize their interconnections (the connectome). Optimizing the connections allows us to substantially reduce the number of logic gates required to fit a particular dataset. Our implementation is efficient both at training and inference: for instance, our LILogicNet model with only 8,000 gates can be trained on MNIST in under 5 minutes and achieves 98.45% test accuracy, matching the performance of state-of-the-art models that require at least two orders of magnitude more gates. Moreover, for our largest architecture with 256,000 gates, LILogicNet achieves 60.98% test accuracy on CIFAR-10 exceeding the performance of prior logic-gate-based models with a comparable gate budget. At inference time, the fully binarized model operates with minimal compute overhead, making it exceptionally efficient and well suited for deployment on low-power digital hardware.
- Abstract(参考訳): 機械学習モデルの効率的なデプロイには、究極的にはハードウェアの制約を考慮する必要がある。
バイナリ論理ゲートは、すべてのデジタルチップの基本的な構成要素である。
これらのユニットで直接動作するモデルの設計は、エネルギー効率の高い計算を可能にする。
近年の研究では、勾配に基づく手法を用いて、バイナリ論理ゲート(ORやNANDなど)のランダムに接続されたネットワークをトレーニングできることが実証されている。
本手法は,論理ゲートの選択だけでなく,相互接続(コネクトーム)の最適化にも利用することによって拡張する。
コネクションを最適化することで、特定のデータセットに適合するのに必要なロジックゲートの数を大幅に削減できます。
例えば、8,000ゲートしか持たないLILogicNetモデルは、MNISTで5分以内でトレーニングでき、98.45%のテスト精度を達成でき、少なくとも2桁以上のゲートを必要とする最先端モデルの性能と一致する。
さらに,256,000のゲートを持つ当社最大のアーキテクチャにおいて,LILogicNetはCIFAR-10上で60.98%の精度を達成し,従来の論理ゲートベースモデルと同等のゲート予算を達成している。
推測時には、完全双項化モデルは最小限の計算オーバーヘッドで動作し、低消費電力のデジタルハードウェアへの展開に非常に適している。
関連論文リスト
- WARP-LUTs - Walsh-Assisted Relaxation for Probabilistic Look Up Tables [0.0]
確率的ルックアップテーブル(WARP-LUT)のウォルシュ支援緩和
WARP-LUT(WARP-LUTs)は、学習可能なパラメータをかなり少ない論理ゲートの組み合わせを効率的に学習する、勾配に基づく新しい手法である。
我々は, WARP-LUT が DLGN と比較して CIFAR-10 の収束を著しく高速化し, 精度は同等であることを示した。
論文 参考訳(メタデータ) (2025-10-17T13:44:36Z) - A Method for Optimizing Connections in Differentiable Logic Gate Networks [0.48212500317840945]
深い微分可能論理ゲートネットワーク(LGN)における接続部分最適化手法を提案する。
学習方法は,ゲート入力毎の接続のサブセットに対する確率分布を利用して,最大値の接続を選択し,その後にゲートタイプを選択する。
接続最適化LGNは,Yin-Yang,MNIST,Fashion-MNISTベンチマークにおいて標準固定接続LGNよりも優れており,論理ゲートの数はごくわずかである。
論文 参考訳(メタデータ) (2025-07-08T16:53:39Z) - Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - Efficient fault-tolerant code switching via one-way transversal CNOT gates [0.0]
スイッチングゲートのみを用いることで、FT回路設計の制約を尊重するコードスキームを提案する。
我々は、既存の量子プロセッサの動作に適した低距離カラーコードへのスキームの適用を解析する。
論理的補助量子ビットが十分に確実に準備できることを前提として、このスキームを大規模な並列化でどのように実装できるかを論じる。
論文 参考訳(メタデータ) (2024-09-20T12:54:47Z) - Quasar-ViT: Hardware-Oriented Quantization-Aware Architecture Search for Vision Transformers [56.37495946212932]
視覚変換器(ViT)は、畳み込みニューラルネットワーク(CNN)と比較して、コンピュータビジョンタスクにおいて優れた精度を示す。
ハードウェア指向の量子化対応アーキテクチャ検索フレームワークであるQuasar-ViTを提案する。
論文 参考訳(メタデータ) (2024-07-25T16:35:46Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Direct pulse-level compilation of arbitrary quantum logic gates on superconducting qutrits [36.30869856057226]
任意のqubitおよびqutritゲートを高忠実度で実現でき、ゲート列の長さを大幅に削減できることを示す。
最適制御ゲートは少なくとも3時間ドリフトでき、同じ校正パラメータを全ての実装ゲートに利用できることを示す。
論文 参考訳(メタデータ) (2023-03-07T22:15:43Z) - Deep Differentiable Logic Gate Networks [29.75063301688965]
論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
本稿では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した微分可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、単一のCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
論文 参考訳(メタデータ) (2022-10-15T12:50:04Z) - Logical blocks for fault-tolerant topological quantum computation [55.41644538483948]
本稿では,プラットフォームに依存しない論理ゲート定義の必要性から,普遍的なフォールトトレラント論理の枠組みを提案する。
資源オーバーヘッドを改善するユニバーサル論理の新しいスキームについて検討する。
境界のない計算に好適な論理誤差率を動機として,新しい計算手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。