論文の概要: Deep Differentiable Logic Gate Networks
- arxiv url: http://arxiv.org/abs/2210.08277v1
- Date: Sat, 15 Oct 2022 12:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:23:28.297625
- Title: Deep Differentiable Logic Gate Networks
- Title(参考訳): 深い微分可能な論理ゲートネットワーク
- Authors: Felix Petersen, Christian Borgelt, Hilde Kuehne, Oliver Deussen
- Abstract要約: 論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
本稿では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した微分可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、単一のCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
- 参考スコア(独自算出の注目度): 29.75063301688965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, research has increasingly focused on developing efficient neural
network architectures. In this work, we explore logic gate networks for machine
learning tasks by learning combinations of logic gates. These networks comprise
logic gates such as "AND" and "XOR", which allow for very fast execution. The
difficulty in learning logic gate networks is that they are conventionally
non-differentiable and therefore do not allow training with gradient descent.
Thus, to allow for effective training, we propose differentiable logic gate
networks, an architecture that combines real-valued logics and a continuously
parameterized relaxation of the network. The resulting discretized logic gate
networks achieve fast inference speeds, e.g., beyond a million images of MNIST
per second on a single CPU core.
- Abstract(参考訳): 近年,効率的なニューラルネットワークアーキテクチャの開発に注目が集まっている。
本研究では,論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
これらのネットワークは、非常に高速な実行を可能にする"AND"や"XOR"のような論理ゲートで構成されている。
論理ゲートネットワークの学習の難しさは、従来は微分不可能であり、勾配降下の訓練を許さないことである。
そこで本研究では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した,差別化可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、1つのCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
関連論文リスト
- LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - DeepGate2: Functionality-Aware Circuit Representation Learning [10.75166513491573]
回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-05-25T13:51:12Z) - Pathfinding Neural Cellular Automata [23.831530224401575]
Pathfindingは、ロボットパス計画、トランスポートルーティング、ゲームプレイなど、幅広い複雑なAIタスクの重要なサブコンポーネントである。
我々は, Breadth-First Search (BFS) のモデル,すなわち最短経路探索のハンドコードと学習を行う。
本稿では、Depth-First Search(DFS)のニューラル実装を提案し、グラフの直径を計算するためのNAAを生成するために、ニューラルネットワークBFSと組み合わせる方法について概説する。
我々は,これらの手書きNCAに触発されたアーキテクチャ変更を実験し,グリッド迷路の直径問題を解くためにゼロからネットワークをトレーニングし,高い能力の一般化を示した。
論文 参考訳(メタデータ) (2023-01-17T11:45:51Z) - Logical blocks for fault-tolerant topological quantum computation [55.41644538483948]
本稿では,プラットフォームに依存しない論理ゲート定義の必要性から,普遍的なフォールトトレラント論理の枠組みを提案する。
資源オーバーヘッドを改善するユニバーサル論理の新しいスキームについて検討する。
境界のない計算に好適な論理誤差率を動機として,新しい計算手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T19:00:03Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Deep-PowerX: A Deep Learning-Based Framework for Low-Power Approximate
Logic Synthesis [4.125556028825251]
本稿では,Deep Learning, Approximate Computing, Low Power Designという3つの強力な技術を統合する。
深層学習の進歩を利用して、近似論理合成エンジンを誘導し、与えられたデジタルCMOS回路の動的消費電力を最小限に抑える。
論文 参考訳(メタデータ) (2020-07-03T02:47:58Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z) - Making Logic Learnable With Neural Networks [5.858798189578114]
ニューラルネットワークと論理回路の利点を組み合わせた新しい論理学習パイプラインを提案する。
私たちのパイプラインはまず、分類タスクでニューラルネットワークをトレーニングし、次にこれをランダムな森林に、次に AND-Inverterロジックに翻訳します。
論文 参考訳(メタデータ) (2020-02-10T15:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。