論文の概要: Scalable Interconnect Learning in Boolean Networks
- arxiv url: http://arxiv.org/abs/2507.02585v1
- Date: Thu, 03 Jul 2025 12:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.28237
- Title: Scalable Interconnect Learning in Boolean Networks
- Title(参考訳): ブールネットワークにおけるスケーラブルな相互接続学習
- Authors: Fabian Kresse, Emily Yu, Christoph H. Lampert,
- Abstract要約: 我々は、入力幅が大きくなるにつれてパラメータ数が一定となる訓練可能な微分可能論理ネットワーク(DBN)を拡張した。
性能に影響を与えずに冗長ゲートを除去するSATベースの論理等価パスと、等級的なグリーディベースラインを上回り、圧縮精度の良いトレードオフを提供する類似性に基づくデータ駆動パスの2つの相補的なプルーニングステージを提案する。
- 参考スコア(独自算出の注目度): 16.358505918152442
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learned Differentiable Boolean Logic Networks (DBNs) already deliver efficient inference on resource-constrained hardware. We extend them with a trainable, differentiable interconnect whose parameter count remains constant as input width grows, allowing DBNs to scale to far wider layers than earlier learnable-interconnect designs while preserving their advantageous accuracy. To further reduce model size, we propose two complementary pruning stages: an SAT-based logic equivalence pass that removes redundant gates without affecting performance, and a similarity-based, data-driven pass that outperforms a magnitude-style greedy baseline and offers a superior compression-accuracy trade-off.
- Abstract(参考訳): Learned Differentiable Boolean Logic Networks (DBNs) は、リソース制約のあるハードウェア上で、既に効率的な推論を提供している。
パラメータ数は入力幅が大きくなるにつれて一定であり、DBNは従来の学習可能な相互接続設計よりもはるかに広い層に拡張でき、有利な精度を保っている。
モデルサイズをさらに小さくするために,性能に影響を与えずに冗長なゲートを除去するSATベースの論理等価パスと,大域的なグリーディベースラインを上回り,圧縮精度の高いトレードオフを提供する類似性に基づくデータ駆動パスの2つの相補的なプルーニングステージを提案する。
関連論文リスト
- Spatio-Temporal Decoupled Learning for Spiking Neural Networks [23.720523101102593]
スパイキング人工ニューラルネットワーク(SNN)は、エネルギー効率の良いインテリジェンスを実現する可能性に大きな注目を集めている。
時間によるバックプロパゲーション(BPTT)は高い精度を達成するが、かなりのメモリオーバーヘッドを引き起こす。
本研究では,SNNの精度と訓練効率を両立させるため,空間的および時間的依存関係を分離する新たなトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-01T18:46:36Z) - Learning Interpretable Differentiable Logic Networks for Tabular Regression [3.8064485653035987]
微分論理ネットワーク(DLN)は解釈可能な推論を提供し、推論コストを大幅に削減する。
我々はDLNフレームワークを監督的回帰に拡張し、特に、最終的な出力層を再設計し、継続的な目標をサポートし、元の2段階トレーニング手順を1つの異なる段階に統一する。
以上の結果から,DLNは回帰タスク,特にモデルの透明性と計算効率が重要である場合において,実行可能で費用対効果の高い代替手段であることが示唆された。
論文 参考訳(メタデータ) (2025-05-29T16:24:18Z) - FTP: A Fine-grained Token-wise Pruner for Large Language Models via Token Routing [17.01412432658081]
大規模言語モデル(LLM)は、法則を拡張することによって、様々なタスクにおいて優れた性能を示す。
重要でないトークンを適応的に識別する学習可能なルータを提案する。
提案手法は,既存の刈り込み手法を超越して,最先端(SOTA)刈り込み結果を実現する。
論文 参考訳(メタデータ) (2024-12-16T07:09:46Z) - Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Binary Early-Exit Network for Adaptive Inference on Low-Resource Devices [3.591566487849146]
バイナリニューラルネットワーク(BNN)は、実数値モデルと比較して、極端な圧縮とスピードアップによる問題に対処する。
そこで本研究では,BNNを早期導入戦略で統合して推論を高速化する,シンプルだが効果的な手法を提案する。
このアプローチでは、決定しきい値に基づいて単純なインスタンスを早期に終了させ、異なる中間層に追加される出力層を利用してバイナリモデル全体の実行を回避する。
論文 参考訳(メタデータ) (2022-06-17T22:11:11Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。