論文の概要: Approximate Bisimulation Relations for Neural Networks and Application
to Assured Neural Network Compression
- arxiv url: http://arxiv.org/abs/2202.01214v1
- Date: Wed, 2 Feb 2022 16:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 13:50:42.011902
- Title: Approximate Bisimulation Relations for Neural Networks and Application
to Assured Neural Network Compression
- Title(参考訳): ニューラルネットワークの近似バイシミュレーション関係と保証ニューラルネットワーク圧縮への応用
- Authors: Weiming Xiang, Zhongzhu Shao
- Abstract要約: 本稿では,フィードフォワードニューラルネットワークに対する近似バイシミュレーション関係の概念を提案する。
2つのニューラルネットワーク間の近似バイシミュレーション誤差を計算するために,新しいニューラルネットワークマージ法を開発した。
- 参考スコア(独自算出の注目度): 3.0839245814393728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a concept of approximate bisimulation relation for
feedforward neural networks. In the framework of approximate bisimulation
relation, a novel neural network merging method is developed to compute the
approximate bisimulation error between two neural networks based on
reachability analysis of neural networks. The developed method is able to
quantitatively measure the distance between the outputs of two neural networks
with the same inputs. Then, we apply the approximate bisimulation relation
results to perform neural networks model reduction and compute the compression
precision, i.e., assured neural networks compression. At last, using the
assured neural network compression, we accelerate the verification processes of
ACAS Xu neural networks to illustrate the effectiveness and advantages of our
proposed approximate bisimulation approach.
- Abstract(参考訳): 本稿では,フィードフォワードニューラルネットワークにおける近似バイシミュレーション関係の概念を提案する。
近似バイシミュレーション関係の枠組みにおいて,ニューラルネットワークの到達可能性解析に基づく2つのニューラルネットワーク間の近似バイシミュレーション誤差を計算するために,新しいニューラルネットワークマージ法を開発した。
提案手法は,同じ入力で2つのニューラルネットワークの出力間の距離を定量的に測定することができる。
そこで,ニューラルネットワークモデルの縮小と圧縮精度,すなわち保証されたニューラルネットワーク圧縮の計算を行うために,近似バイシミュレーション関係結果を適用した。
最後に、保証されたニューラルネットワーク圧縮を用いて、ACAS Xuニューラルネットワークの検証プロセスを高速化し、提案手法の有効性と利点を明らかにする。
関連論文リスト
- Stochastic Gradient Descent for Two-layer Neural Networks [2.0349026069285423]
本稿では、過パラメータ化された2層ニューラルネットワークに適用した場合の降下(SGD)アルゴリズムの収束率について検討する。
提案手法は,NTKのタンジェントカーネル(NTK)近似と,NTKが生成する再生カーネル空間(RKHS)の収束解析を組み合わせたものである。
我々の研究フレームワークは、カーネルメソッドと最適化プロセスの間の複雑な相互作用を探索し、ニューラルネットワークのダイナミクスと収束特性に光を当てることを可能にする。
論文 参考訳(メタデータ) (2024-07-10T13:58:57Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Decoding Neuronal Networks: A Reservoir Computing Approach for
Predicting Connectivity and Functionality [0.0]
我々のモデルは神経培養の電気生理学的測定から得られたデータを解読する。
特に、ネットワーク接続マップの予測において、クロスコリレーションやトランスファーエントロピーのような一般的な手法よりも優れています。
論文 参考訳(メタデータ) (2023-11-06T14:28:11Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Guaranteed Quantization Error Computation for Neural Network Model
Compression [2.610470075814367]
ニューラルネットワークモデル圧縮技術は、産業システムの組み込みデバイス上でのディープニューラルネットワークの計算問題に対処することができる。
統合されたニューラルネットワークは、フィードフォワードニューラルネットワークとその量子化されたバージョンから構築され、2つのニューラルネットワーク間の正確な出力差を生成する。
論文 参考訳(メタデータ) (2023-04-26T20:21:54Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Nonlinear Weighted Directed Acyclic Graph and A Priori Estimates for
Neural Networks [9.43712471169533]
まず、完全連結、残留ネットワーク(ResNet)、密結合ネットワーク(DenseNet)を含むニューラルネットワークモデルの新しいグラフ理論的定式化について述べる。
本研究では,2層ネットワークであるprioritwoとresnetcitee 2019prioriresの集団リスクの誤差解析をdrknetに拡張し,一定の軽度条件を満たすニューラルネットワークでは同様の推定が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:54:33Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z) - Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural
Networks [3.7277730514654555]
決定木を用いて、関連する特徴とその相互作用をキャプチャし、抽出した関係をニューラルネットワークにエンコードするマッピングを定義する。
同時に、機能選択により、アートツリーベースのアプローチの状況と比較して、コンパクトな表現の学習が可能になる。
論文 参考訳(メタデータ) (2020-02-11T11:22:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。