論文の概要: Bisimulations for Neural Network Reduction
- arxiv url: http://arxiv.org/abs/2110.03726v1
- Date: Thu, 7 Oct 2021 18:24:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 08:47:09.161303
- Title: Bisimulations for Neural Network Reduction
- Title(参考訳): ニューラルネットワークの低減のためのシミュレーション
- Authors: Pavithra Prabhakar
- Abstract要約: 本稿では、与えられたニューラルネットワークに意味論的に等価な還元されたネットワークを誘導するバイシミュレーションの概念を提案する。
ほぼ二相的なニューラルネットワーク間の意味的偏差を定量化する。
- 参考スコア(独自算出の注目度): 5.787117733071415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a notion of bisimulation that induces a reduced network which is
semantically equivalent to the given neural network. We provide a minimization
algorithm to construct the smallest bisimulation equivalent network. Reductions
that construct bisimulation equivalent neural networks are limited in the scale
of reduction. We present an approximate notion of bisimulation that provides
semantic closeness, rather than, semantic equivalence, and quantify semantic
deviation between the neural networks that are approximately bisimilar. The
latter provides a trade-off between the amount of reduction and deviations in
the semantics.
- Abstract(参考訳): 本稿では,与えられたニューラルネットワークと意味的に等価な縮小ネットワークを誘導するバイシミュレーションの概念を提案する。
最小のバイシミュレーション等価ネットワークを構成する最小化アルゴリズムを提案する。
シミュレーション等価ニューラルネットワークを構成するリダクションは、リダクションのスケールで制限される。
本稿では,ほぼ類似するニューラルネットワーク間の意味的偏差を定量化するために,意味的同値ではなく,意味的近接性を提供するバイシミュレーションの近似概念を提案する。
後者は意味論における減量と偏差の間のトレードオフを提供する。
関連論文リスト
- Removing Spurious Concepts from Neural Network Representations via Joint
Subspace Estimation [0.0]
ニューラルネットワークにおけるアウト・オブ・ディストリビューションの一般化は、しばしば素早い相関によって妨げられる。
既存の概念除去手法は、モデルの主要なタスクに関連する機能を不注意に排除することで、過熱する傾向にある。
本稿では,ニューラルネットワーク表現における2つの低次元部分空間を共同で同定することにより,主タスク概念から突発性を分離する反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-18T14:22:36Z) - Syntactic vs Semantic Linear Abstraction and Refinement of Neural
Networks [0.0]
抽象化はスケーラビリティを改善するための重要な検証テクニックです。
分類ネットワークを抽象化するための従来のアプローチは、いくつかのニューロンをそれと十分に類似した1つに置き換えるものだった。
本研究では、ニューロンを他のニューロンの線形結合に置き換えることにより、より柔軟な枠組みを提供する。
論文 参考訳(メタデータ) (2023-07-20T14:10:40Z) - Specification-Driven Neural Network Reduction for Scalable Formal
Verification [8.751383865142772]
本稿では,ネットワークの検証が元のネットワークの検証を意味することを確実にする,保守的なニューラルネットワーク削減手法を提案する。
評価の結果,本手法はニューロン数の5%未満までネットワークを縮小し,検証時間を短縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-03T07:13:47Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Approximate Bisimulation Relations for Neural Networks and Application
to Assured Neural Network Compression [3.0839245814393728]
本稿では,フィードフォワードニューラルネットワークに対する近似バイシミュレーション関係の概念を提案する。
2つのニューラルネットワーク間の近似バイシミュレーション誤差を計算するために,新しいニューラルネットワークマージ法を開発した。
論文 参考訳(メタデータ) (2022-02-02T16:21:19Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Artificial Neural Networks generated by Low Discrepancy Sequences [59.51653996175648]
我々は、高密度ネットワークグラフ上のランダムウォーキングとして、人工ニューラルネットワークを生成する。
このようなネットワークはスクラッチからスパースを訓練することができ、高密度ネットワークをトレーニングし、その後圧縮する高価な手順を避けることができる。
我々は,低差分シーケンスで生成された人工ニューラルネットワークが,より低い計算複雑性で,密度の高いニューラルネットワークの到達範囲内で精度を達成できることを実証した。
論文 参考訳(メタデータ) (2021-03-05T08:45:43Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - A biologically plausible neural network for local supervision in
cortical microcircuits [17.00937011213428]
我々は、明示的なエラーやバックプロパゲーションを避けるニューラルネットワークを訓練するためのアルゴリズムを導出する。
我々のアルゴリズムは、大脳皮質の接続構造や学習規則に顕著な類似性を持つニューラルネットワークにマップする。
論文 参考訳(メタデータ) (2020-11-30T17:35:22Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。