論文の概要: Towards Global Neural Network Abstractions with Locally-Exact
Reconstruction
- arxiv url: http://arxiv.org/abs/2210.12054v2
- Date: Fri, 31 Mar 2023 14:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 17:18:13.597496
- Title: Towards Global Neural Network Abstractions with Locally-Exact
Reconstruction
- Title(参考訳): 局所的再現によるグローバルニューラルネットワークの抽象化に向けて
- Authors: Edoardo Manino, Iury Bessa, Lucas Cordeiro
- Abstract要約: 中心現実再構成(GINNACER)を用いたグローバルインターバルニューラルネットワーク抽象化を提案する。
我々の新しい抽象化技術は、任意の局所入力に対して正確な再構成を保証しつつ、入力領域全体の音響過度近似境界を生成する。
実験の結果,GINNACERは最先端のグローバル抽象技術よりも数桁厳密であり,局所的な抽象技術と競合していることがわかった。
- 参考スコア(独自算出の注目度): 2.1915057426589746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are a powerful class of non-linear functions. However, their
black-box nature makes it difficult to explain their behaviour and certify
their safety. Abstraction techniques address this challenge by transforming the
neural network into a simpler, over-approximated function. Unfortunately,
existing abstraction techniques are slack, which limits their applicability to
small local regions of the input domain. In this paper, we propose Global
Interval Neural Network Abstractions with Center-Exact Reconstruction
(GINNACER). Our novel abstraction technique produces sound over-approximation
bounds over the whole input domain while guaranteeing exact reconstructions for
any given local input. Our experiments show that GINNACER is several orders of
magnitude tighter than state-of-the-art global abstraction techniques, while
being competitive with local ones.
- Abstract(参考訳): ニューラルネットワークは非線形関数の強力なクラスである。
しかし、そのブラックボックスの性質は、彼らの行動の説明と安全性の確認を困難にしている。
抽象化技術は、ニューラルネットワークをよりシンプルで近似的な関数に変換することで、この課題に対処します。
残念ながら、既存の抽象化技術はスラックであり、入力ドメインの小さなローカル領域に適用性を制限する。
本稿では,Center-Exact Reconstruction (GINNACER) を用いたグローバルインターバルニューラルネットワーク抽象化を提案する。
提案手法は,任意の局所入力に対して正確な再構成を保証しつつ,入力領域全体の音量近似境界を生成する。
実験の結果,GINNACERは最先端のグローバル抽象技術よりも数桁厳密であり,局所的な抽象技術と競合していることがわかった。
関連論文リスト
- Neural Experts: Mixture of Experts for Implicit Neural Representations [41.395193251292895]
入射神経表現(INR)は、画像、形状、音声、ビデオ再構成など様々なタスクで有効であることが証明されている。
本稿では,局所的な部分的連続関数の学習を可能にする暗黙的ニューラル表現手法(MoE)の混合を提案する。
既存のINRの定式化に専門家アーキテクチャを混在させることで,高速化,精度,メモリ要件が向上することを示す。
論文 参考訳(メタデータ) (2024-10-29T01:11:25Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - A Note on the Implicit Bias Towards Minimal Depth of Deep Neural
Networks [11.739219085726006]
これらのシステムの成功を可能にする中心的な側面は、広い浅いものではなく、深いモデルを訓練する能力である。
深層ニューラルネットワークのトレーニングは、浅いニューラルネットワークに対して繰り返し、優れたパフォーマンスを達成する一方で、表現学習における深度の役割の理解はいまだに欠如している。
論文 参考訳(メタデータ) (2022-02-18T05:21:28Z) - Over-and-Under Complete Convolutional RNN for MRI Reconstruction [57.95363471940937]
MR画像再構成のための最近のディープラーニングに基づく手法は、通常、汎用的なオートエンコーダアーキテクチャを利用する。
OUCR(Over-and-Under Complete Convolu?tional Recurrent Neural Network)を提案する。
提案手法は, トレーニング可能なパラメータの少ない圧縮されたセンシングと, 一般的なディープラーニングに基づく手法に対して, 大幅な改善を実現する。
論文 参考訳(メタデータ) (2021-06-16T15:56:34Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - DeepAbstract: Neural Network Abstraction for Accelerating Verification [0.0]
入力に対して同じように振る舞うニューロンのクラスタリングに基づいて,完全接続型フィードフォワードニューラルネットワークに適用可能な抽象化フレームワークを提案する。
本稿では,ネットワークの精度を保ちながら,抽象化がネットワークのサイズを減らし,抽象ネットワーク上での検証結果を元のネットワークに戻す方法を示す。
論文 参考訳(メタデータ) (2020-06-24T13:51:03Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。