論文の概要: Recurrent Deep Differentiable Logic Gate Networks
- arxiv url: http://arxiv.org/abs/2508.06097v1
- Date: Fri, 08 Aug 2025 07:49:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.128227
- Title: Recurrent Deep Differentiable Logic Gate Networks
- Title(参考訳): Recurrent Deep Differentiable Logic Gate Networks
- Authors: Simon Bührer, Andreas Plesner, Till Aczel, Roger Wattenhofer,
- Abstract要約: 本稿では,Recurrent Deep Differentiable Logic Gate Networks (RDDLGN)の最初の実装について述べる。
トレーニング中の5.00 BLEUと30.9%の精度を実現し、GRU性能(5.41 BLEU)と推論中の優雅な劣化(4.39 BLEU)に近づいた。
この研究は、リカレント論理に基づくニューラル計算を実行可能なものとして確立し、シーケンシャルモデリングにおけるFPGAアクセラレーションの研究方向を開放する。
- 参考スコア(独自算出の注目度): 18.95453617434051
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: While differentiable logic gates have shown promise in feedforward networks, their application to sequential modeling remains unexplored. This paper presents the first implementation of Recurrent Deep Differentiable Logic Gate Networks (RDDLGN), combining Boolean operations with recurrent architectures for sequence-to-sequence learning. Evaluated on WMT'14 English-German translation, RDDLGN achieves 5.00 BLEU and 30.9\% accuracy during training, approaching GRU performance (5.41 BLEU) and graceful degradation (4.39 BLEU) during inference. This work establishes recurrent logic-based neural computation as viable, opening research directions for FPGA acceleration in sequential modeling and other recursive network architectures.
- Abstract(参考訳): 異なる論理ゲートはフィードフォワードネットワークにおいて有望であることを示しているが、シーケンシャルなモデリングへの応用はまだ検討されていない。
本稿では,逐次学習のためのブール演算と繰り返しアーキテクチャを組み合わせたRDDLGN(Recurrent Deep Differentiable Logic Gate Networks)の実装について述べる。
WMT'14英語-ドイツ語翻訳で評価すると、RDDLGNはトレーニング中に5.00BLEUと30.9\%の精度を達成し、GRUのパフォーマンス(5.41BLEU)と推論時に優雅な劣化(4.39BLEU)に近づいた。
この研究は、逐次モデリングやその他の再帰的ネットワークアーキテクチャにおけるFPGAアクセラレーションの研究方向を開き、リカレント論理に基づくニューラル計算を実行可能なものとして確立する。
関連論文リスト
- Learning Interpretable Differentiable Logic Networks for Tabular Regression [3.8064485653035987]
微分論理ネットワーク(DLN)は解釈可能な推論を提供し、推論コストを大幅に削減する。
我々はDLNフレームワークを監督的回帰に拡張し、特に、最終的な出力層を再設計し、継続的な目標をサポートし、元の2段階トレーニング手順を1つの異なる段階に統一する。
以上の結果から,DLNは回帰タスク,特にモデルの透明性と計算効率が重要である場合において,実行可能で費用対効果の高い代替手段であることが示唆された。
論文 参考訳(メタデータ) (2025-05-29T16:24:18Z) - Logic Gate Neural Networks are Good for Verification [20.84137106332268]
学習論理ゲートネットワーク(LGN)における大域的ロバスト性と公正性を検証するためのSAT符号化を導入する。
提案手法は,新たに構築された5クラスの変種を含む5つのベンチマークデータセットを用いて評価し,LGNが検証に適しており,高い予測性能を維持していることを確認した。
論文 参考訳(メタデータ) (2025-05-26T12:59:33Z) - Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - DeepSeq2: Enhanced Sequential Circuit Learning with Disentangled Representations [9.79382991471473]
本稿では,シーケンシャル回路の学習を促進する新しいフレームワークであるDeepSeq2を紹介する。
効率的なDAG-GNN(Directed Acyclic Graph Neural Network)を用いることで、DeepSeq2は実行時間を著しく短縮し、モデルのスケーラビリティを向上させる。
DeepSeq2は、シーケンシャルな回路表現学習における新しいベンチマークを設定し、電力推定と信頼性解析における先行研究を上回っている。
論文 参考訳(メタデータ) (2024-11-01T11:57:42Z) - Properties and Potential Applications of Random Functional-Linked Types
of Neural Networks [81.56822938033119]
ランダム関数リンクニューラルネットワーク(RFLNN)は、深い構造を学習する別の方法を提供する。
本稿では周波数領域の観点からRFLNNの特性について考察する。
本稿では,より優れた性能でBLSネットワークを生成する手法を提案し,ポゾン方程式を解くための効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-04-03T13:25:22Z) - Deep Differentiable Logic Gate Networks [29.75063301688965]
論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
本稿では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した微分可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、単一のCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
論文 参考訳(メタデータ) (2022-10-15T12:50:04Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Refined Gate: A Simple and Effective Gating Mechanism for Recurrent
Units [68.30422112784355]
本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。
提案したゲートは、抽出された入力特徴とバニラゲートの出力を直接的にショートする。
LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。
論文 参考訳(メタデータ) (2020-02-26T07:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。