論文の概要: Deep Differentiable Logic Gate Networks
- arxiv url: http://arxiv.org/abs/2210.08277v1
- Date: Sat, 15 Oct 2022 12:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:23:28.297625
- Title: Deep Differentiable Logic Gate Networks
- Title(参考訳): 深い微分可能な論理ゲートネットワーク
- Authors: Felix Petersen, Christian Borgelt, Hilde Kuehne, Oliver Deussen
- Abstract要約: 論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
本稿では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した微分可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、単一のCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
- 参考スコア(独自算出の注目度): 29.75063301688965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, research has increasingly focused on developing efficient neural
network architectures. In this work, we explore logic gate networks for machine
learning tasks by learning combinations of logic gates. These networks comprise
logic gates such as "AND" and "XOR", which allow for very fast execution. The
difficulty in learning logic gate networks is that they are conventionally
non-differentiable and therefore do not allow training with gradient descent.
Thus, to allow for effective training, we propose differentiable logic gate
networks, an architecture that combines real-valued logics and a continuously
parameterized relaxation of the network. The resulting discretized logic gate
networks achieve fast inference speeds, e.g., beyond a million images of MNIST
per second on a single CPU core.
- Abstract(参考訳): 近年,効率的なニューラルネットワークアーキテクチャの開発に注目が集まっている。
本研究では,論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
これらのネットワークは、非常に高速な実行を可能にする"AND"や"XOR"のような論理ゲートで構成されている。
論理ゲートネットワークの学習の難しさは、従来は微分不可能であり、勾配降下の訓練を許さないことである。
そこで本研究では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した,差別化可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、1つのCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
関連論文リスト
- Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - Towards Narrowing the Generalization Gap in Deep Boolean Networks [3.230778132936486]
本稿では,従来のブリアンネットワークを越えつつ,ブリアンネットワークの深層化を図る戦略について検討する。
本稿では,論理的スキップ接続と空間性保持サンプリングを含む新しい手法を提案し,視覚タスクで検証する。
本稿では,1ビット論理演算による計算コストを最小化しながら,深いBooleanネットワークがハイパフォーマンスを維持する方法を示す。
論文 参考訳(メタデータ) (2024-09-06T09:16:36Z) - Learning Interpretable Differentiable Logic Networks [3.8064485653035987]
解釈可能な微分可能論理ネットワーク(DLN)を学習するための新しい手法を提案する。
我々はこれらのネットワークを、入力の双対化、二項論理演算、ニューロン間の接続を通じて、個々の成分の軟化と差別化によって訓練する。
20の分類タスクの実験結果は、従来のNNと同等かそれ以上の精度で、微分可能な論理ネットワークが達成可能であることを示している。
論文 参考訳(メタデータ) (2024-07-04T21:58:26Z) - Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - DeepGate2: Functionality-Aware Circuit Representation Learning [10.75166513491573]
回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-05-25T13:51:12Z) - Logical blocks for fault-tolerant topological quantum computation [55.41644538483948]
本稿では,プラットフォームに依存しない論理ゲート定義の必要性から,普遍的なフォールトトレラント論理の枠組みを提案する。
資源オーバーヘッドを改善するユニバーサル論理の新しいスキームについて検討する。
境界のない計算に好適な論理誤差率を動機として,新しい計算手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T19:00:03Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。