論文の概要: Logic Gate Neural Networks are Good for Verification
- arxiv url: http://arxiv.org/abs/2505.19932v1
- Date: Mon, 26 May 2025 12:59:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.439475
- Title: Logic Gate Neural Networks are Good for Verification
- Title(参考訳): 論理ゲートニューラルネットワークは検証に適している
- Authors: Fabian Kresse, Emily Yu, Christoph H. Lampert, Thomas A. Henzinger,
- Abstract要約: 学習論理ゲートネットワーク(LGN)における大域的ロバスト性と公正性を検証するためのSAT符号化を導入する。
提案手法は,新たに構築された5クラスの変種を含む5つのベンチマークデータセットを用いて評価し,LGNが検証に適しており,高い予測性能を維持していることを確認した。
- 参考スコア(独自算出の注目度): 20.84137106332268
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning-based systems are increasingly deployed across various domains, yet the complexity of traditional neural networks poses significant challenges for formal verification. Unlike conventional neural networks, learned Logic Gate Networks (LGNs) replace multiplications with Boolean logic gates, yielding a sparse, netlist-like architecture that is inherently more amenable to symbolic verification, while still delivering promising performance. In this paper, we introduce a SAT encoding for verifying global robustness and fairness in LGNs. We evaluate our method on five benchmark datasets, including a newly constructed 5-class variant, and find that LGNs are both verification-friendly and maintain strong predictive performance.
- Abstract(参考訳): 学習ベースのシステムは、さまざまなドメインにまたがってデプロイされるようになっているが、従来のニューラルネットワークの複雑さは、形式的な検証に重大な課題をもたらす。
従来のニューラルネットワークとは異なり、学習されたLogic Gate Networks(LGNs)は、Boolean論理ゲートによる乗算を置き換え、本質的には象徴的な検証に適したスパースなネットリストのようなアーキテクチャを実現すると同時に、有望なパフォーマンスを提供する。
本稿では,LGNのグローバルロバスト性と公正性を検証するためのSAT符号化を提案する。
提案手法は,新たに構築された5クラスの変種を含む5つのベンチマークデータセットを用いて評価し,LGNが検証に適しており,高い予測性能を維持していることを確認した。
関連論文リスト
- Convolutional Differentiable Logic Gate Networks [68.74313756770123]
本稿では,論理ゲートネットワークを微分緩和により直接学習する手法を提案する。
私たちはこのアイデアに基づいて、深い論理ゲートツリーの畳み込みと論理ORプーリングによってそれを拡張します。
CIFAR-10では、6100万の論理ゲートのみを使用して86.29%の精度を実現し、SOTAよりも29倍の精度で改善した。
論文 参考訳(メタデータ) (2024-11-07T14:12:00Z) - Towards Narrowing the Generalization Gap in Deep Boolean Networks [3.230778132936486]
本稿では,従来のブリアンネットワークを越えつつ,ブリアンネットワークの深層化を図る戦略について検討する。
本稿では,論理的スキップ接続と空間性保持サンプリングを含む新しい手法を提案し,視覚タスクで検証する。
本稿では,1ビット論理演算による計算コストを最小化しながら,深いBooleanネットワークがハイパフォーマンスを維持する方法を示す。
論文 参考訳(メタデータ) (2024-09-06T09:16:36Z) - Learning Interpretable Differentiable Logic Networks [3.8064485653035987]
解釈可能な微分可能論理ネットワーク(DLN)を学習するための新しい手法を提案する。
我々はこれらのネットワークを、入力の双対化、二項論理演算、ニューロン間の接続を通じて、個々の成分の軟化と差別化によって訓練する。
20の分類タスクの実験結果は、従来のNNと同等かそれ以上の精度で、微分可能な論理ネットワークが達成可能であることを示している。
論文 参考訳(メタデータ) (2024-07-04T21:58:26Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Applications of Lattice Gauge Equivariant Neural Networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)
L-CNNは従来のニューラルネットワークよりも、異なるサイズの格子をより一般化することができる。
我々はL-CNNのWilsonフローや連続正規化フローへの応用の可能性について述べる。
論文 参考訳(メタデータ) (2022-12-01T19:32:42Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Lightweight, Efficient and Explainable-by-Design Convolutional Neural
Network for Internet Traffic Classification [9.365794791156972]
本稿では、インターネットトラフィック分類のための新しい軽量・効率的・eXplainable-by-design畳み込みニューラルネットワーク(LEXNet)を提案する。
LEXNetは(軽量で効率の良い目的のために)新しい残留ブロックと(説明可能性のために)プロトタイプ層に依存している。
商用グレードのデータセットに基づいて、LEXNetは最先端のニューラルネットワークと同じ精度を維持することに成功した。
論文 参考訳(メタデータ) (2022-02-11T10:21:34Z) - Neural Network Branch-and-Bound for Neural Network Verification [26.609606492971967]
本稿では,効率的な分岐戦略を設計するための新しい機械学習フレームワークを提案する。
グラフ入力として検証したいネットワークを直接扱う2つのグラフニューラルネットワーク(GNN)を学習する。
我々のGNNモデルは、より大きな未確認ネットワーク上での厳しい特性に対してよく一般化されていることを示す。
論文 参考訳(メタデータ) (2021-07-27T14:42:57Z) - An SMT-Based Approach for Verifying Binarized Neural Networks [1.4394939014120451]
本稿では,SMTを用いた二元化ニューラルネットワークの検証手法を提案する。
我々の手法の1つの新しい点は、二項化コンポーネントと非二項化コンポーネントの両方を含むニューラルネットワークの検証を可能にすることである。
我々は、この手法をマラブーフレームワークの拡張として実装し、一般的な二項化ニューラルネットワークアーキテクチャのアプローチを評価する。
論文 参考訳(メタデータ) (2020-11-05T16:21:26Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。