論文の概要: Eventizing Traditionally Opaque Binary Neural Networks as 1-safe Petri net Models
- arxiv url: http://arxiv.org/abs/2602.13128v1
- Date: Fri, 13 Feb 2026 17:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.056234
- Title: Eventizing Traditionally Opaque Binary Neural Networks as 1-safe Petri net Models
- Title(参考訳): 1セーフペトリネットモデルとしての伝統的に不透明なバイナリニューラルネットワークのイベント化
- Authors: Mohamed Tarraf, Alex Chan, Alex Yakovlev, Rishad Shafik,
- Abstract要約: バイナリニューラルネットワーク(BNN)は、従来の完全精度ニューラルネットワークに対して、低複雑さでエネルギー効率のよい代替手段を提供する。
彼らの離散的で、非常に非線形な振る舞いは、説明し、検証し、正式に検証することを困難にします。
イベント駆動プロセスとしてBNNの内部操作をキャプチャするペトリネット(PN)ベースのフレームワークを導入する。
- 参考スコア(独自算出の注目度): 0.5499796332553707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Binary Neural Networks (BNNs) offer a low-complexity and energy-efficient alternative to traditional full-precision neural networks by constraining their weights and activations to binary values. However, their discrete, highly non-linear behavior makes them difficult to explain, validate and formally verify. As a result, BNNs remain largely opaque, limiting their suitability in safety-critical domains, where causal transparency and behavioral guarantees are essential. In this work, we introduce a Petri net (PN)-based framework that captures the BNN's internal operations as event-driven processes. By "eventizing" their operations, we expose their causal relationships and dependencies for a fine-grained analysis of concurrency, ordering, and state evolution. Here, we construct modular PN blueprints for core BNN components including activation, gradient computation and weight updates, and compose them into a complete system-level model. We then validate the composed PN against a reference software-based BNN, verify it against reachability and structural checks to establish 1-safeness, deadlock-freeness, mutual exclusion and correct-by-construction causal sequencing, before we assess its scalability and complexity at segment, component, and system levels using the automated measurement tools in Workcraft. Overall, this framework enables causal introspection of transparent and event-driven BNNs that are amenable to formal reasoning and verification.
- Abstract(参考訳): バイナリニューラルネットワーク(BNN)は、重みとアクティベーションをバイナリ値に制限することにより、従来の完全精度ニューラルネットワークに代わる、低複雑さでエネルギー効率の代替手段を提供する。
しかし、それらの離散的で、非常に非線形な振る舞いは、説明し、検証し、正式に検証することを困難にしている。
その結果、BNNは依然として不透明であり、因果的透明性と行動保証が不可欠である安全クリティカルドメインにおける適合性を制限している。
本研究では,イベント駆動プロセスとしてBNNの内部操作をキャプチャするペトリネット(PN)ベースのフレームワークを提案する。
彼らのオペレーションを"評価"することで、並行性、順序付け、状態の進化を詳細に分析するために、彼らの因果関係と依存関係を公開します。
そこで我々は,アクティベーション,勾配計算,重み更新を含むコアBNNコンポーネント用のモジュール型PNブループリントを構築し,それらをシステムレベルモデルに構成する。
次に,構成されたPNを,参照ソフトウェアベースのBNNに対して検証し,1セーフネス,デッドロックフリー,相互排他,コンストラクション毎の因果シークエンシングを確立するための到達性と構造チェックに対して検証した後,Workcraftの自動測定ツールを用いて,セグメント,コンポーネント,システムレベルでのスケーラビリティと複雑性を評価する。
全体として、このフレームワークは、正式な推論と検証が可能な透明でイベント駆動のBNNの因果的イントロスペクションを可能にする。
関連論文リスト
- Efficient Certified Reasoning for Binarized Neural Networks [25.20597060311209]
バイナリニューラルネットワーク(BNN)は、各ニューロンがブール値に制約されるニューラルネットワークの一種である。
既存のBNN解析手法では、スケーラビリティの制限や音質誤差への感受性に悩まされている。
我々は,BNNの質的,定量的な検証のために,スケーラブルで信頼性の高い手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T09:27:02Z) - Neural Network Verification with Branch-and-Bound for General Nonlinearities [63.39918329535165]
ブランチ・アンド・バウンド(BaB)は、ニューラルネットワーク(NN)検証において最も効果的な手法の一つである。
我々は、一般的な非線形性にBaBを実行し、一般的なアーキテクチャでNNを検証する汎用フレームワークGenBaBを開発した。
我々のフレームワークは、一般的な非線形グラフの検証を可能にし、単純なNNを超えた検証アプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-05-31T17:51:07Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Towards Accurate Binary Neural Networks via Modeling Contextual
Dependencies [52.691032025163175]
既存のバイナリニューラルネットワーク(BNN)は主にバイナライズ機能を備えた局所畳み込みで動作する。
本稿では,二元系ニューラルモジュールの設計を新たに提案し,二元系ニューラルモジュールを大きなマージンで導く。
論文 参考訳(メタデータ) (2022-09-03T11:51:04Z) - A Mixed Integer Programming Approach for Verifying Properties of
Binarized Neural Networks [44.44006029119672]
BNN検証のための混合整数計画法を提案する。
我々は,MNISTデータセットと航空機衝突回避制御器を用いて訓練したBNNの特性を検証することによって,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2022-03-11T01:11:29Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - BDD4BNN: A BDD-based Quantitative Analysis Framework for Binarized
Neural Networks [7.844146033635129]
一般実数ニューラルネットワークの1ビット量子化であるBinarized Neural Networks(BNNs)の検証問題について検討する。
我々のアプローチは,BNNの内部構造を利用して,BNNをBDD(Bibinary Decision Diagram)にエンコードすることである。
符号化に基づいて,BNNの高精度かつ包括的分析が可能なBNNの定量的検証フレームワークを開発する。
論文 参考訳(メタデータ) (2021-03-12T12:02:41Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Incorporating Interpretable Output Constraints in Bayesian Neural
Networks [34.103445420814644]
出力制約付きBNN(OC-BNN)は不確実性定量化のためのベイズフレームワークと完全に一致している。
我々は、医療、刑事司法、信用スコアなどの複数の領域にまたがる実世界のデータセットに対するOC-BNNの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-21T13:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。