論文の概要: Convolutional Differentiable Logic Gate Networks
- arxiv url: http://arxiv.org/abs/2411.04732v1
- Date: Thu, 07 Nov 2024 14:12:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:35.722137
- Title: Convolutional Differentiable Logic Gate Networks
- Title(参考訳): 畳み込み微分可能な論理ゲートネットワーク
- Authors: Felix Petersen, Hilde Kuehne, Christian Borgelt, Julian Welzel, Stefano Ermon,
- Abstract要約: 本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
- 参考スコア(独自算出の注目度): 68.74313756770123
- License:
- Abstract: With the increasing inference cost of machine learning models, there is a growing interest in models with fast and efficient inference. Recently, an approach for learning logic gate networks directly via a differentiable relaxation was proposed. Logic gate networks are faster than conventional neural network approaches because their inference only requires logic gate operators such as NAND, OR, and XOR, which are the underlying building blocks of current hardware and can be efficiently executed. We build on this idea, extending it by deep logic gate tree convolutions, logical OR pooling, and residual initializations. This allows scaling logic gate networks up by over one order of magnitude and utilizing the paradigm of convolution. On CIFAR-10, we achieve an accuracy of 86.29% using only 61 million logic gates, which improves over the SOTA while being 29x smaller.
- Abstract(参考訳): 機械学習モデルの推論コストの増加に伴い、高速かつ効率的な推論モデルへの関心が高まっている。
近年,論理ゲートネットワークを微分緩和により直接学習する手法が提案されている。
論理ゲートネットワークは、現在のハードウェアの基盤となるブロックであるNAND、OR、XORなどの論理ゲート演算子のみを必要とするため、従来のニューラルネットワークアプローチよりも高速で、効率的に実行できる。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込み、論理ORプーリング、残余の初期化によってそれを拡張します。
これにより、論理ゲートネットワークを1桁以上スケールアップし、畳み込みのパラダイムを活用することができる。
CIFAR-10では86.29%の精度を6100万個の論理ゲートで達成し、SOTAを29倍小さくして改善した。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Deep Differentiable Logic Gate Networks [29.75063301688965]
論理ゲートの組み合わせを学習することで,機械学習タスクのための論理ゲートネットワークを探索する。
本稿では,実数値論理と連続パラメータ化されたネットワーク緩和を併用した微分可能な論理ゲートネットワークを提案する。
その結果、離散化された論理ゲートネットワークは、単一のCPUコア上で毎秒100万イメージのMNISTを超える高速な推論速度を達成する。
論文 参考訳(メタデータ) (2022-10-15T12:50:04Z) - Logical blocks for fault-tolerant topological quantum computation [55.41644538483948]
本稿では,プラットフォームに依存しない論理ゲート定義の必要性から,普遍的なフォールトトレラント論理の枠組みを提案する。
資源オーバーヘッドを改善するユニバーサル論理の新しいスキームについて検討する。
境界のない計算に好適な論理誤差率を動機として,新しい計算手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T19:00:03Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Reinforcement Learning for Scalable Logic Optimization with Graph Neural
Networks [5.156191363676411]
本稿では,グラフ畳み込みネットワークと強化学習とを組み合わせることで,論理グラフにどの局所変換を適用するべきかを学習するための新しいスケーラブルノード埋め込み手法を提案する。
本手法は,小型回路におけるABCと同じようなサイズ低減を実現し,より大きなランダムグラフ上で1.5-1.75倍に上ることを示す。
論文 参考訳(メタデータ) (2021-05-04T20:51:54Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Neural Logic Reasoning [47.622957656745356]
本稿では,ディープラーニングと論理推論の能力を統合するために,論理統合ニューラルネットワーク(LINN)を提案する。
LINNは、神経モジュールとしてAND、OR、NOTなどの基本的な論理操作を学び、推論のためにネットワークを通して命題論理推論を行う。
実験の結果、LINNはTop-Kレコメンデーションにおいて最先端のレコメンデーションモデルを大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2020-08-20T14:53:23Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。